چالش‌های جدید آخرین مدل هوش مصنوعی!

چالش‌های جدید آخرین مدل هوش مصنوعی!

آخرین مدل هوش مصنوعی شرکت OpenAI با چالش‌های جدیدی مواجه شده و نگرانی‌هایی درباره احتمال سوءاستفاده از آن برای تولید سلاح‌های بیولوژیکی به وجود آمده است.  با این خبر و بیشتر در مدیا گیم همراه باشید!
محققان امنیتی هشدار داده‌اند که فناوری‌های در حال پیشرفت می‌توانند به خطراتی برای جامعه تبدیل شوند و خود OpenAI نیز به این خطرات اذعان کرده است. طبق گزارش Financial Times، OpenAI مدل جدیدی به نام o1 را معرفی کرده است که بهبودهایی در زمینه استدلال، حل مسائل ریاضی پیچیده و پاسخ به سؤالات علمی ارائه می‌دهد. این قابلیت‌ها به‌عنوان گامی مهم به سمت توسعه هوش مصنوعی جامع یا ماشین‌هایی با شناخت مشابه انسان در نظر گرفته شده‌اند. OpenAI در توضیحات خود درباره عملکرد این مدل، به خطرات متوسط آن در زمینه سلاح‌های شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای (CBRN) اشاره کرده است. این رده‌بندی «متوسط» بالاترین سطح خطر است که تاکنون به مدل‌های این شرکت داده شده و نشان‌دهنده این است که این فناوری می‌تواند به‌طور معناداری توانایی متخصصان را در زمینه‌های مرتبط با CBRN افزایش دهد و تهدیدات جدیدی ایجاد کند.

مدل هوش مصنوعی جدید OpenAI

به گفته کارشناسان، این نرم‌افزار با قابلیت‌های پیشرفته‌اش، مانند انجام استدلال‌های گام‌به‌گام، می‌تواند احتمال سوءاستفاده توسط افراد بداندیش را افزایش دهد. این نگرانی‌ها در شرایطی مطرح می‌شوند که شرکت‌های فناوری مانند گوگل، متا و انتروپیک در حال رقابت برای توسعه سیستم‌های هوش مصنوعی پیشرفته هستند تا نرم‌افزاری تولید کنند که به انسان‌ها در انجام وظایف و مدیریت زندگی کمک کند. این مسائل به تلاش‌ها برای قانون‌گذاری در صنعت هوش مصنوعی دامن زده است. در کالیفرنیا، لایحه‌ای به نام SB 1047 در حال بررسی است که از سازندگان مدل‌های هوش مصنوعی می‌خواهد اقداماتی را برای کاهش خطر استفاده از مدل‌هایشان در تولید سلاح‌های بیولوژیکی انجام دهند. برخی سرمایه‌گذاران و گروه‌های فناوری، از جمله OpenAI، هشدار داده‌اند که این قانون می‌تواند تأثیرات منفی شدیدی بر صنعت هوش مصنوعی داشته باشد. در این میان، «گاوین نیوسام»، فرماندار کالیفرنیا، باید در روزهای آینده تصمیم بگیرد که آیا این قانون را امضا کند یا آن را وتو نماید.

درباره ی مدیا گیم