هنوز در تفسیر نحوه عملکرد هوش مصنوعی خود موفق نبوده‌ایم

تا این مدت در تفسیر نحوه کارکرد هوش مصنوعی خود موفق نبوده‌ایم_اسکوار


نوشته و ویرایش شده توسط مجله ی اسکوار

شرکت OpenAI ده‌ها میلیارد دلار برای گسترش فناوری‌های هوش مصنوعی که در حال تحول جهان می باشند، جمع‌آوری کرده است. اما یک مشکل بزرگ وجود دارد: این شرکت هم چنان در فهمیدن نحوه کارکرد تکنولوژی‌ خود مشکل دارد.

در طی اجلاس جهانی AI for Good که هفته قبل توسط اتحادیه بین‌المللی مخابرات در ژنو، سوئیس برگزار شد، «سم آلتمن»، مدیرعامل OpenAI، بعد از پرسشی درمورد کارکرد واقعی مدل‌های زبان بزرگ (LLM) شرکتش، موفق نشد جواب مناسبی بدهد.

تا این مدت در تفسیر نحوه کارکرد هوش مصنوعی خود موفق نبوده‌ایم_اسکوار ۴

چالش‌های پژوهشگران در توضیح فرآیندهای هوش مصنوعی

آلتمن به نقل از Observer او گفت: «ما قطعاً قضیه تفسیرپذیری را حل نکرده‌ایم» و به طور اساسی اذعان کرد که شرکت تا این مدت نتوانسته است نحوه ردیابی خروجی‌های شگفت و نادرست مدل‌های هوش مصنوعی خود و تصمیماتی که برای رسیدن به آن جواب‌ها گرفته شده‌اند را کشف کند.

هنگامی که نیکولاس تامپسون، مدیرعامل The Atlanticدر طول این اتفاقات او را تحت سختی قرار داد و سوال کرد آیا این نوشته نمی‌تواند «دلیلی برای توقف اراعه مدل‌های تازه و پرقدرت» باشد، آلتمن به نظر می‌رسید که سردرگم است و با حالتی غیرمطمین جواب داد که مدل‌های هوش مصنوعی‌ «عموماً امن و قوی برداشت خواهد شد.»

جواب ناامیدکننده آلتمن یک مشکل واقعی در فضای نوظهور هوش مصنوعی را برجسته می‌کند. پژوهشگران زمان‌ها است که در تلاش برای توضیح فرآیندهای پشت پرده تفکر آزادانه مدل‌های هوش مصنوعی بوده‌اند که به‌طور تقریباً جادویی و بی‌زحمت به هر سؤالی که به آنها داده می‌بشود عکس العمل نشان خواهند داد.

اما هر چه مقدار هم که تلاش کرده‌اند، ردیابی خروجی به مواد مهم که هوش مصنوعی بر روی آن‌ها آموزش دیده است زیاد دشوار بوده است. OpenAI، با وجود نام و داستان مهم شرکت، نیز داده‌هایی که بر روی آنها هوش مصنوعی‌های خود را آموزش می‌دهد زیاد محرمانه نگه داشته است.

یک گروه شامل ۷۵ کارشناس اخیراً در گزارشی علمی که توسط دولت بریتانیا خواست داده شده می بود، نتیجه‌گیری کردند که گسترش‌دهندگان هوش مصنوعی «اطلاعات مقداری درمورد نحوه کارکرد سیستم‌های خود می‌دانند» و دانش علمی «زیاد محدود» است.

این گزارش می‌گوید: «تکنیک‌های تفسیرپذیری و توضیح مدل می‌توانند فهمیدن پژوهشگران و گسترش‌دهندگان از نحوه کارکرد سیستم‌های هوش مصنوعی عمومی را بهبود بخشند، اما این پژوهش تا این مدت در مرحله های ابتدایی است.»

شرکت‌های دیگر هوش مصنوعی در تلاش می باشند تا راه‌های جدیدی برای «باز کردن جعبه سیاه» با نقشه‌برداری از نورون‌های مصنوعی الگوریتم‌های خود اشکار کنند. برای مثال، رقیب OpenAI به نام Anthropic اخیراً نگاهی دقیق به ساختار درونی یکی از آخرین مدل‌های LLM خود به نام Claude Sonnet انداخته است.

دسته بندی مطالب

کسب وکار

تکنولوژی

اموزشی

سلامت