راز یادگیری هوش مصنوعی فاش شد؛ فکر نمیکند، فقط حدس میزند

گجت نیوز/ پرده از راز یادگیری هوش مصنوعی برداشته شد. بر خلاف تصور عموم، این فناوری پیشرفته فکر نمیکند، بلکه صرفاً حدس میزند. این یافته، درک ما از تواناییها و محدودیتهای فعلی هوش مصنوعی را به چالش میکشد.
مدلهای هوش مصنوعی مانند ChatGPT در واقع فکر نمیکنند، استدلال نمیکنند، درک نمیکنند، بلکه صرفاً الگوهای حدسزن هستند که بر اساس حجم عظیمی از متون انسانی آموزش دیدهاند و تلاش میکنند تا کلمه یا مفهوم بعدی را بر مبنای همبستگیهایی که پیشتر مشاهده کردهاند، پیشبینی کنند. همین واقعیت، بنیان آنها را تشکیل میدهد.
این موضوع ما را به پرسش مهمی میرساند: اگر این مدلها تا این اندازه هوشمند به نظر میرسند، پس چرا همچنان دچار خطا میشوند، واقعیتها را تحریف میکنند یا گرایشهای جانبدارانه نشان میدهند؟ برای فهم این مسئله، لازم است تا نحوه یادگیری آنها را بررسی کنیم.
راز یادگیری هوش مصنوعی در چیست؟
مدلهای زبانی بزرگ، اطلاعات را به شیوهای متفاوت از انسانها پردازش میکنند. در عمل آنها هیچگونه استدلال، درک یا آگاهی ندارند. آنها روی مجموعهای بزرگ از دادهها شامل کتابها، وبسایتها و گفتگوها آموزش دیدهاند تا بتوانند آنچه را که در یک زنجیره از کلمات میآید، پیشبینی کنند. این مدلها، زبان را به واحدهای کوچکی به نام «توکن» تجزیه میکنند که اغلب میتوانند بخشهایی از کلمات باشند و سپس تلاش میکنند تا با بالاترین احتمال، یک توکن را پس از توکن دیگر حدس بزنند.
در ادامه، نحوه عملکرد یک مدل هوش مصنوعی در فهم و استدلال دادهها و اطلاعات شرح داده شده است:
توکنها: زبان به واحدهای کوچکی نظیر کلمات یا هجاها تقسیم میگردد. برای نمونه، واژه «washing» ممکن است به «wash» و «ing» تفکیک شود. مدلها با ایدههای کامل سروکار ندارند، بلکه صرفاً احتمالات توکن به توکن را در نظر میگیرند.
وزنها: اینها میلیاردها مقدار قابل تنظیم در شبکه عصبی هستند. آنها را میتوان به مثابه دکمههایی تصور کرد که به مدل میگویند یک توکن تا چه میزان بر توکن دیگر تأثیر بگذارد.
تابع زیان: این روشی است که مدل از طریق آن ارزیابی میکند پس از یک حدس، چه مقدار اشتباه کرده است. مدل، وزنهای خود را به منظور کاهش اشتباهات آتی تغییر میدهد.
تشخیص الگو: در نهایت، مدل در شناسایی الگوهای زبانی بسیار ماهر میشود. اما همچنان «واقعیتها» را نمیداند، بلکه فقط آنچه را که معمولاً صحیح به نظر میرسد، تشخیص میدهد. اگر بپرسید پایتخت فرانسه کجاست، مدل نمیداند که پاریس است. بلکه صرفاً میداند که واژه «پاریس» اغلب در دادههای آموزشی آن پس از این پرسش آمده است.
درک این سازوکار اساسی از اهمیت بسزایی برخوردار است، زیرا مبنایی را فراهم میآورد تا دریابیم چرا مدلها همچنان میتوانند دچار توهم شوند، تعصب نشان دهند یا اشتباهات غیرقابل پیشبینی مرتکب شوند.
یکی از اساسیترین مشکلات مدلهای هوش مصنوعی، پدیده توهم است. این وضعیت زمانی رخ میدهد که مدل با اطمینان خاطر، دادههای نادرست یا خیالی تولید میکند. برای مثال، یک مقاله علمی ساختگی را جعل میکند یا به منابعی استناد میکند که اصلاً وجود خارجی ندارند. این عمل دروغگویی آگاهانه نیست؛ بلکه مدل به سادگی تمایزی بین حقیقت و ساختگی قائل نمیشود و صرفاً بر اساس الگوهای موجود حدس میزند.
در کاربردهای عملی، توهمات میتوانند نتایج وخیمی به بار آورند. در زمینههای حقوقی، آکادمیک یا پزشکی، یک هوش مصنوعی قادر است قوانین و منابع را از خود بسازد یا با اعتماد به نفس کامل، تشخیصهای پزشکی نادرستی ارائه دهد بدون آنکه از پیشینه سلامت بیمار آگاهی داشته باشد. این مسئله به روشنی نشان میدهد که چرا انسانها باید تمامی محتوای تولید شده توسط هوش مصنوعی را بررسی و صحتسنجی کنند، به ویژه در زمینههایی که دقت و صحت اطلاعات از اهمیت فوقالعادهای برخوردار است.
سوگیری، یکی دیگر از مشکلات است. مدلهای زبانی بزرگ این قابلیت را دارند که به نحوی هدایت شوند تا خروجیهایی را ارائه دهند که یک دیدگاه را بر دیدگاه دیگر ارجحیت میبخشند. این مدلها با استفاده از حجم عظیمی از دادههای موجود در اینترنت، شامل کتابها، وبسایتها و رسانههای اجتماعی، آموزش دیدهاند و در نتیجه، تعصبات موجود در این دادهها را جذب کردهاند. بنابراین، مدل نمیداند چگونه این موضوعات را پالایش کند. بلکه صرفاً آنچه را که به آن داده شده، فرا میگیرد. این سوگیریها یک عمل عمدی نیست، بلکه به طور مستقیم به دادههای آموزشی که در اختیار آن قرار گرفته است، بستگی دارد.
با همه مشکلاتی که وجود دارد، پژوهشگران و شرکتها فعالانه میکوشند تا هوش مصنوعی را امنتر، اطمینانبخشتر و سازگارتر با ارزشهای انسانی کنند. این تلاشها، پیشرفتهای الگوریتمی تا مباحث پیرامون قوانین و مقررات بینالمللی را شامل میشود.
برای نمونه، شرکت OpenAI طرحی با عنوان “Superalignment” را آغاز کرده که تمرکز آن بر همسو کردن مدلهای پیشرفته هوش مصنوعی با اهداف والای انسانی است. گروه دستاندرکار این پروژه در حال توسعه نوعی از هوش مصنوعی است که قادر خواهد بود درباره ارزشها و ایمنی انسان بدون احتیاج به مداخله و نظارت پیوسته انسانی، استدلال و منطق بیاورد.