نگاهی به انقلاب هوش مصنوعی؛ یادگیری اما به شکلی متفاوت
مدیران معمولا درمورد محصولات خود بدگویی نمیکنند اما سم آلتمن مدیر عامل شرکت هوش مصنوعی باز (Open AI) درمودر مبدل آموزش دیده زایا 3 (GPT-3) اینگونه عمل نکرد و در توییتی نوشت «درمورد GPT-3 بیش از حد هیجان زده شدهاید. این هوش مصنوعی در عین شکوهمندی هنوز نقاط ضعف جدی دارد و گاهی اوقات اشتباهات مضحکی از آن سر می زند» این توییت وی در پاسخ به کسانی بود که GPT-3 را تداعی لحظه پایان یک عصر علمی و تولد دورهای تازه عنوان میکردند.
نرم افزار GPT-3 یا نسل سوم پردازشگرهای زبان به خوبی انسان را شبیه سازی میکند و میتوان این نرم افزار را بهترین نویسنده غیر انسانی دانست. اگر جملهای به این نرمافزار ارائه کنیم و از آن بخواهیم جمله دیگری شبیه به آن بنویسد بدون هیچ نقصی این کار را انجام میدهد. اما این کار را یکی از قابلیتهای ایمیل هم به خوبی انجام میدهد، کاربران توقع بیشتری از این نرمافزار دارند.
آنچه GPT-3 را منحصر به فرد میکند، ۴۵ ترابایت اطلاعاتی است که برای آموزش آن به کار رفته است، یعنی بیشتر از هر نرم افزار دیگری.
از آنجایی که این نرم افزار هرنوع ترکیب ممکن برای کلمات را به خاطر میآورد، درنتیجه به سرعت مراحل آزمون و خطا را برای هر ۱۷۵ میلیارد حالت ممکن انجام میدهد. جالب اینکه این نرم افزار قادر است مهارتهای خود را در زمینههای مرتبط نیز به کار گیرد؛ با توجه به توان ترجمه GPT-3 میتواند همانطور که انگلیسی را به فرانسه تبدیل میکند زبان انگلیسی را نیز به جاوا اسکریپت تبدیل کند. در واقع این نرم افزار در حال یادگیری است؛ اما یادگیری نه به آن صورتی که ما میپنداریم.
این فرایند را نمیتوان هوش یا خلاقیت نامید. در حقیقت GPT-3 از ماهیت آنچه انجام میدهد مطلع نیست؛ این نرمافزار نمیداند که چطور یا چرا تصمیم به تکمیل جملات گرفته است؛ هیچ برداشتی از تجربه انسانی ندارد؛ و قادر به تشخیص این نیست که آیا آنچه مینویسد منطقی است یا غیر منطقی. در واقع GPT-3 الگوی علمی پیروز بر دیگر الگو ها را به ما ارائه میدهد.
در ابتدای پیدایش هوش مصنوعی، ماشینها نمیتوانستند استاد بزرگ شطرنج را شکست دهند. اما زمانی که دادههای آموزشی در اختیار آنها قرار داد شد و آنها به جای «حفظ آنچه دریافتهاند»، به «جستجو همانند یک استاد» پرداختند، توانستند استاد بزرگها را شکست دهند. این روزها دیگر استاد بزرگهای شطرنج قادر به پیروزی نیستند.
دلیل این موضوع قانون مور است، با افزایش تعداد، هزینه نیز بسیار کاهش پیدا میکند. منطق هوش مصنوعی به این صورت است که هرچه دادههای بیشتری مصرف شوند، مدلهای بیشتری شکل میگیرند و هوش مصنوعی از لحاظ کمی انسانها را شکست خواهد داد. اگر افزایش مقیاس را ملاکی برای دستیابی به هوش انسانی بدانیم، بازهم GPT-3 حدود ۱۰۰۰ برابر کوچکتر از مغز ۱۰۰ تریلیون سیناپسی انسان است.
مغز انسان تنها با چند بار مشاهده یک عمل آن را یاد میگیرد. ماشینها هنوز قادر نیستند همانند انسان با تنها چند مثال یا حتی بدون مشاهده نمونه یک عمل را بیاموزند و GPT-3 نیز از این مسئله مستثنی نیست.
آموزش شبکههای عصبی GPT-3 هزینه بر است. مایکروسافت سال گذشته یک میلیارد دلار روی این پروژه سرمایه گذاری کرد. مسئله آلودگی کربنی نیز یکی دیگر از مشکلات پیش روست. حال آنکه یک شبکه عصبی بزرگ با آلودگی کربن پنج خودرو در تمام طول حیاتشان برابری میکند. از همین رو این سوال مطرح میشود که آیا هوش مصنوعی ارزش چنین هزینههایی را دارد؟
اما مسئله اصلی این است که هوش مصنوعی تجاری باید قانونمند شود. این شرکت پیشتر راهاندازی GPT-2 با یک و نیم میلیارد پارامتر را به دلیل ترس از کاربردهای احتمالی به تعویق انداخت. ترس این شرکت بسیار منطقی بود؛ هوش مصنوعی میتواند از گرایشات نژادپرستانه و جنسیت ستیز دادههایی که دریافت میکند تقلید کند.
در عصر خبرهای جعلی، دستگاههایی همچون GPT سلاحهای قدرتمندی محسوب میشوند: سلاح هایی که با انتشار اطلاعات نادرست و تفرقه انداز، رقبای سیاسی را به جان هم بیاندازد.