آخرین مدل هوش مصنوعی شرکت OpenAI با چالشهای جدیدی مواجه شده و نگرانیهایی درباره احتمال سوءاستفاده از آن برای تولید سلاحهای بیولوژیکی به وجود آمده است. با این خبر و بیشتر در مدیا گیم همراه باشید!
محققان امنیتی هشدار دادهاند که فناوریهای در حال پیشرفت میتوانند به خطراتی برای جامعه تبدیل شوند و خود OpenAI نیز به این خطرات اذعان کرده است. طبق گزارش Financial Times، OpenAI مدل جدیدی به نام o1 را معرفی کرده است که بهبودهایی در زمینه استدلال، حل مسائل ریاضی پیچیده و پاسخ به سؤالات علمی ارائه میدهد. این قابلیتها بهعنوان گامی مهم به سمت توسعه هوش مصنوعی جامع یا ماشینهایی با شناخت مشابه انسان در نظر گرفته شدهاند. OpenAI در توضیحات خود درباره عملکرد این مدل، به خطرات متوسط آن در زمینه سلاحهای شیمیایی، بیولوژیکی، رادیولوژیکی و هستهای (CBRN) اشاره کرده است. این ردهبندی «متوسط» بالاترین سطح خطر است که تاکنون به مدلهای این شرکت داده شده و نشاندهنده این است که این فناوری میتواند بهطور معناداری توانایی متخصصان را در زمینههای مرتبط با CBRN افزایش دهد و تهدیدات جدیدی ایجاد کند.
به گفته کارشناسان، این نرمافزار با قابلیتهای پیشرفتهاش، مانند انجام استدلالهای گامبهگام، میتواند احتمال سوءاستفاده توسط افراد بداندیش را افزایش دهد. این نگرانیها در شرایطی مطرح میشوند که شرکتهای فناوری مانند گوگل، متا و انتروپیک در حال رقابت برای توسعه سیستمهای هوش مصنوعی پیشرفته هستند تا نرمافزاری تولید کنند که به انسانها در انجام وظایف و مدیریت زندگی کمک کند. این مسائل به تلاشها برای قانونگذاری در صنعت هوش مصنوعی دامن زده است. در کالیفرنیا، لایحهای به نام SB 1047 در حال بررسی است که از سازندگان مدلهای هوش مصنوعی میخواهد اقداماتی را برای کاهش خطر استفاده از مدلهایشان در تولید سلاحهای بیولوژیکی انجام دهند. برخی سرمایهگذاران و گروههای فناوری، از جمله OpenAI، هشدار دادهاند که این قانون میتواند تأثیرات منفی شدیدی بر صنعت هوش مصنوعی داشته باشد. در این میان، «گاوین نیوسام»، فرماندار کالیفرنیا، باید در روزهای آینده تصمیم بگیرد که آیا این قانون را امضا کند یا آن را وتو نماید.