نوشته و ویرایش شده توسط مجله ی اسکوار
گروهی از کارکنان جاری و اسبق شرکتهای OpenAI و دیپمایند گوگل در نامهای سرگشاده نگرانیهای خود را درمورد خطرات ناشی از فناوری نوظهور هوش مصنوعی اظهار کردند. آنها هشدار خواهند داد که نظارت دقیقی بر ایمنی هوش مصنوعی وجود ندارد و خواستار حمایتزیاد تر از سوتزنان این شرکتها شدند. سوتزنان افرادی می باشند که مشکلات داخل یک شرکت را برملا میکنند.
در نامه سرگشاده گروهی متشکل از ۱۱ کارمند جاری و اسبق OpenAI و دو کارمند جاری و اسبق دیپمایند گوگل آمده است که انگیزههای مالی شرکتهای هوش مصنوعی مانع از نظارت مؤثر میبشود. «جفری هنیتون»، پدرخوانده هوش مصنوعی نیز از این نامه حمایتکرده است.
OpenAI نیز در بیانیهای از عمل های خود دفاع کرد و او گفت که راهکارهایی برای گزارش مشکلات به مسئولین شرکت وجود دارد و این چنین تا وقتی که عمل های حفاظتی مناسب وجود نداشته باشد، فناوری جدیدی اراعه نمیکند.
نامه کارکنان OpenAI و دیپمایند درمورد خطرات هوش مصنوعی
در این نامه آمده است که شرکتهای هوش مصنوعی اطلاعات خصوصی و محرمانه قابلتوجهی درمورد قابلیتها و محدودیتهای سیستمهای خود، مسائل امنیتی و انواع خطرات هوش مصنوعی دارند؛ بااینحال، آنها اکنون تنها تعهدات ضعیفی برای درمیانگذاشتن برخی از این اطلاعات با دولتها دارند.
کارکنان OpenAI و دیپمایند در این نامه میگویند درحالیکه هوش مصنوعی برای جامعه منفعتهایی دارد، اما خطراتی همانند افزایش نابرابریها، دستکاری و انتشار کردن اطلاعات نادرست و حتی گمان انقراض انسان نیز در بین است.
یقیناً نگرانیهای مهمی درمورد این فناوری وجود دارد که چه بسا امکان پذیر سیاره زمین را تسخیر کند، اما هوش مصنوعی مولد امروزی مشکلات اساسیتری همانند نقض کپیرایت، اشتراکگذاری ناخواسته تصاویر مشکلساز و غیرقانونی، و ساخت و انتشار کردن دیپفیکها به وجود اورده است.
این چنین امضاکنندگان این نامه ادعا میکنند که پشتیبانیهای جاری از سوتزنان یا همان افشاگران ناکافی است، چون این پشتیبانیها بر افشای فعالیتهای غیرقانونی تمرکز دارند اما افشای نگرانیهای ایمنی را پوشش نمیدهند. یقیناً وزارت کار آمریکا میگوید کارکنانی که در قسمتهایی همانند حقوق، تبعیض، ایمنی، کلاهبرداری و محرومیت از مرخصی تخلفات را گزارش خواهند داد، توسط قوانین حمایتاز سوتزنان محافظت خواهد شد و کارفرمایان نمی توانند این افراد را اخراج کنند. بااینحال این کارکنان از این کار ابراز نگرانی کردند.
مدتی پیس نیز خبر انحلال تیم ایمنی هوش مصنوعی OpenAI و استعفای مدیر آن نیز خبرساز شد. یقیناً مدتی بعد از آن این شرکت از تشکیل یک کمیته ایمنی دیگر خبر داد.
دسته بندی مطالب