نوشته و ویرایش شده توسط مجله ی اسکوار
شرکت OpenAI دهها میلیارد دلار برای گسترش فناوریهای هوش مصنوعی که در حال تحول جهان می باشند، جمعآوری کرده است. اما یک مشکل بزرگ وجود دارد: این شرکت هم چنان در فهمیدن نحوه کارکرد تکنولوژی خود مشکل دارد.
در طی اجلاس جهانی AI for Good که هفته قبل توسط اتحادیه بینالمللی مخابرات در ژنو، سوئیس برگزار شد، «سم آلتمن»، مدیرعامل OpenAI، بعد از پرسشی درمورد کارکرد واقعی مدلهای زبان بزرگ (LLM) شرکتش، موفق نشد جواب مناسبی بدهد.
چالشهای پژوهشگران در توضیح فرآیندهای هوش مصنوعی
آلتمن به نقل از Observer او گفت: «ما قطعاً قضیه تفسیرپذیری را حل نکردهایم» و به طور اساسی اذعان کرد که شرکت تا این مدت نتوانسته است نحوه ردیابی خروجیهای شگفت و نادرست مدلهای هوش مصنوعی خود و تصمیماتی که برای رسیدن به آن جوابها گرفته شدهاند را کشف کند.
هنگامی که نیکولاس تامپسون، مدیرعامل The Atlanticدر طول این اتفاقات او را تحت سختی قرار داد و سوال کرد آیا این نوشته نمیتواند «دلیلی برای توقف اراعه مدلهای تازه و پرقدرت» باشد، آلتمن به نظر میرسید که سردرگم است و با حالتی غیرمطمین جواب داد که مدلهای هوش مصنوعی «عموماً امن و قوی برداشت خواهد شد.»
جواب ناامیدکننده آلتمن یک مشکل واقعی در فضای نوظهور هوش مصنوعی را برجسته میکند. پژوهشگران زمانها است که در تلاش برای توضیح فرآیندهای پشت پرده تفکر آزادانه مدلهای هوش مصنوعی بودهاند که بهطور تقریباً جادویی و بیزحمت به هر سؤالی که به آنها داده میبشود عکس العمل نشان خواهند داد.
اما هر چه مقدار هم که تلاش کردهاند، ردیابی خروجی به مواد مهم که هوش مصنوعی بر روی آنها آموزش دیده است زیاد دشوار بوده است. OpenAI، با وجود نام و داستان مهم شرکت، نیز دادههایی که بر روی آنها هوش مصنوعیهای خود را آموزش میدهد زیاد محرمانه نگه داشته است.
یک گروه شامل ۷۵ کارشناس اخیراً در گزارشی علمی که توسط دولت بریتانیا خواست داده شده می بود، نتیجهگیری کردند که گسترشدهندگان هوش مصنوعی «اطلاعات مقداری درمورد نحوه کارکرد سیستمهای خود میدانند» و دانش علمی «زیاد محدود» است.
این گزارش میگوید: «تکنیکهای تفسیرپذیری و توضیح مدل میتوانند فهمیدن پژوهشگران و گسترشدهندگان از نحوه کارکرد سیستمهای هوش مصنوعی عمومی را بهبود بخشند، اما این پژوهش تا این مدت در مرحله های ابتدایی است.»
شرکتهای دیگر هوش مصنوعی در تلاش می باشند تا راههای جدیدی برای «باز کردن جعبه سیاه» با نقشهبرداری از نورونهای مصنوعی الگوریتمهای خود اشکار کنند. برای مثال، رقیب OpenAI به نام Anthropic اخیراً نگاهی دقیق به ساختار درونی یکی از آخرین مدلهای LLM خود به نام Claude Sonnet انداخته است.
دسته بندی مطالب