پیشرو سیاست OpenAi ، این شرکت را متهم می کند که روایت ایمنی هوش مصنوعی خود را تغییر می دهد

OpenAI called out by ex policy researcher over its concerning approach to AI safety systems

Openai به طرز تهاجمی به چشم انداز بلندپروازانه خود نزدیک شده است ، به خصوص با محبوبیت روزافزون Deepseek و تهدیدی که برای موقعیت Openai به عنوان یکی از شرکت های پیشرو در هوش مصنوعی ایجاد می کند. این غول فناوری توسعه AGI را دنبال کرده است و حتی به اشتراک گذاشته است که عوامل فوق العاده هوش مصنوعی چیز بزرگ بعدی هستند. در حالی که این شرکت از بدو تأسیس ، در حال تعادل در ایمنی و رقابت بوده است ، رویکرد اخیر آن به ایمنی هوش مصنوعی به خوبی مورد استقبال قرار نگرفته است ، به ویژه با یک عضو کلیدی سابق که از جهت شرکت انتقاد می کند و سؤال می کند که آیا این شرکت در حال تجدید نظر در روایت خود است.

Openai توسط یک سیاست سابق در مورد تغییر روایت آن در مورد ایمنی AI و حفظ اقدامات مسئول فراخوانده می شود

Openai اخیراً رویکرد خود را در مورد استقرار دقیق تکراری مدل های هوش مصنوعی خود با جامعه با انتشار آنها به مرحله به مرحله و استفاده از برنامه محتاطانه GPT -2 به عنوان نمونه به اشتراک گذاشته است. با این حال ، این مثال انتقاداتی را از سوی محقق سابق سیاست OpenAi Miles Brundage ، که این شرکت را فراخوانده و آن را متهم به بازنویسی روایت در تاریخ ایمنی هوش مصنوعی کرد ، دعوت کرد.

سندی که Openai منتشر کرد ، رویکرد خود را به ایمنی هوش مصنوعی و استقرار مدل های آن برجسته می کند. این تأکید کرد که چگونه با سیستم های فعلی یک رویکرد محتاطانه انجام می شود و GPT -2 را به عنوان بخشی از رویکرد انتشار محتاطانه خود ذکر کرد. این شرکت ابراز اعتقاد به یادگیری از ابزارهای موجود برای اطمینان از ایمنی سیستم های آینده. در سند بیان شد:

در دنیای ناپیوسته (…) دروس ایمنی از درمان سیستم های امروز با احتیاط بیش از حد نسبت به قدرت ظاهری آنها ناشی می شود ، (که) رویکردی است که ما برای (مدل هوش مصنوعی ما) GPT – 2 گرفتیم. اکنون ما اولین AGI را فقط یک امتیاز در امتداد یک سری از سیستم های فزاینده ای (…) در دنیای مداوم مشاهده می کنیم ، راه ایمن و سودمند سیستم بعدی یادگیری از سیستم فعلی است.

مایلز برونداژ ، که چندین سال رئیس تحقیقات سیاست شرکت بود ، تأکید می کند که نسخه GPT-2 نیز در هر مرحله از یک رویکرد افزایشی با بینش های اشتراک گذاری OpenAi پیروی کرد و کارشناسان امنیتی از رویکرد محتاطانه شرکت برای رسیدگی به مدل قدردانی و قدردانی کردند. او استدلال می کند که آزادی تدریجی GPT-2 با استراتژی استقرار تکراری فعلی خود هماهنگ است و محکم معتقد است که احتیاط گذشته بیش از حد نبوده بلکه ضروری و مسئول بود.

Brundage همچنین پیش رفت و ابراز نگرانی از ادعای Openai مبنی بر ایجاد AGI در مراحل تدریجی به جای دستیابی به موفقیت ناگهانی. وی به اشتراک گذاشت که چگونه این شرکت در مورد تاریخ انتشار GPT-2 و بازنویسی تاریخچه ایمنی بسیار ناگوار است. وی در ادامه اظهار داشت كه دلهره های خود در مورد انتشار OpenAi این سند را برای ایجاد نگرانی های ایمنی استاندارد یا مکان به عنوان واکنش بیش از حد ، به طور بالقوه خطر بزرگی ایجاد می كند ، به خصوص كه پیشرفت بیشتری در سیستم های هوش مصنوعی حاصل می شود.

این اولین بار نیست که Openai به دلیل اولویت بندی پیشرفت و سود بیش از ایمنی طولانی مدت مورد انتقاد قرار می گیرد. کارشناسان مانند Brundage تأکید می کنند که آیا این تجارت توجیه شده است و نگرانی های مربوط به آنچه آینده ممکن است در صورت عدم توجه به ایمنی AI باشد ، به اشتراک می گذارد.

منبع: https://wccftech.com/former-openai-policy-lead-accuses-the-company-of-altering-its-ai-safety-narrative/