مسئولیت اجتماعی انسان در عصر هوش مصنوعی
وقتی در مورد هوش مصنوعی حرف زده میشود، هراسی در لابهلای مکالمهها از تصور آیندهای ویران احساس میشود؛ آیندهای که در آن رباتها غلبه دارند، مشاغل انسانها را گرفتهاند و خودسرانه عمل میکنند.
افرادی مثل استفان هاوکینگ و الون ماسک پیشازاین هشدارهایی در مورد پتانسیل خطرناک هوش مصنوعی دادهاند. منتقدان نیز به تهدیدهایی اشارهکردهاند.
این ترس در کنار افزایش سرمایهگذاریها روی هوش مصنوعی و پیشرفت شرکتها در این زمینه افزایشیافته و سؤالاتی را در مورد مسئولیت بشر در این زمینه، ایجاد کرده است. این سؤالات بیشتر حوزه اخلاق و مسئولیت اجتماعی سازمانها را دربرمیگیرند.
میزان استفاده از AI هرسال بیشتر از پیش میشود و این فناوری هرقدر که میگذرد، ازنظر کاربرد و استفاده قدرتمندتر، مستقلتر و گستردهتر میشود. مسئله حلنشده در این میان، قابلیت بالقوه خطرناک هوش مصنوعی است که اهمیت زیادی دارد؛ تعصب، تصمیمگیری ضعیف، شفافیت کم، کاهش مشاغل و استفاده بدخواهانه از هوش مصنوعی (مثل سلاحها) ازجمله ریسکهای این فناوری به شمار میرود. در ادامه به روندهای مهم در زمینه اخلاق هوش مصنوعی و مسئولیت انسانی اشاره میکنیم.
تبعیض، تعصب و نابرابری
یکی از ریسکهای هوش مصنوعی که اخیراً نیز با الگوریتمهای ارائه پیشنهاد آمازون و سیستمهای تشخیص چهره پلیس سروصدای زیادی کرده، این است که تعصب یا پیشفرضهای انسانی وارد الگوریتم هوش انسانی شود. درواقع، مسئله اصلی، وجهه انسانی دارد؛ برنامهنویس که الگوریتمها را برای ماشین مشخص میکند، پیشفرضهایی دارد و بهاینترتیب این پیشفرضها وارد ابزار هوش مصنوعی میشوند.
امروزه یادگیری ماشین و شبکههای عصبی عمیق در بین خدماتی هستند که میتوانند تصاویر را شناسایی کنند و الگوها را با استفاده از دادهها تشخیص دهند؛ اما حتی پیشرفتهترین نرمافزارهای تشخیص چهره نیز بر اساس رنگ پوست افراد عمل میکنند.
سال گذشته، ACLU آزمایشی به روی نرمافزار تشخیص چهره آمازون انجام داد که در آن ۴۰ درصد از چهره اکثر افرادی که بهدرستی شناسایی نشده بود، به افراد سیاهپوست تعلق داشت. آمازون با بیش از ۴۰۰ شعبه از نیروهای پلیس آمریکا شراکت دارد و این نرمافزار همچنان در این دپارتمان مورداستفاده قرار میگیرد.
Hodvh مؤسسه فناوری ماساچوست (MIT) اعلام کرده که درحالتوسعه یک الگوریتم است که بهطور خودکار دادههای آموزشی را برای زدودن تبعیض نژادی هوش مصنوعی در تشخیص چهره فراهم و اطمینان حاصل میکند که محدوده گستردهای از انسانها را در بر گیرد.
مقررات و اخلاقگرایی
درعینحال که شرکتهای بزرگ در استفاده از هوش مصنوعی عجله زیادی دارند و با همدیگر رقابت میکنند، تحلیلگران و سیاستگذاران نیاز به امنیت بیشتر را احساس کردهاند. کمیتهها در حال بررسی مسئلهاند، اما هنوز مقررات دقیقی در زمینه هوش مصنوعی وضع نشده است. برخی تحلیلگران میگویند ازآنجاکه هوش مصنوعی به بلوغ کامل نرسیده، هنوز نمیشود مقرراتی را در مورد آن وضع کرد. واضحترین مقررات تثبیتشده، مقررات حفاظت از داده شخصی (GDRP)در اروپا است؛ رگولاتورهای اروپایی شرکتها را ملزم کردهاند که در مورد تصمیمگیریهای خود در زمینه استفاده از دادهها با مشتریان شفاف باشند. تطبیق با مقررات به شفافیت بیشتر کمک میکند.
در این میان، دولتها، شرکتها و سیاستگذاران فناوری راهنماییها و دستورالعملهای مختلفی درزمینه اخلاق داده منتشر کردند. این اواخر طیف وسیعی از اخلاقشناسان داده شروع به بحثهای انضمامی در حوزه اخلاقی کردهاند. به نظر بسیاری از صاحبنظران، اخلاق عمومی توسط قانون هدایت میشود.
کسی که این قواعد را نقض کند پیامدهایی مثل از دست دادن شغل و جریمههای کیفری در انتظارش است. از ویژگیهای اخلاق کاربردی میتوان به مشخص بودن آنها برای موقعیتهای خاص، حلقههای بازخوردی داشتن، دستورالعملهای در دسترس، نظارت دقیق و پیامدها در صورت نقض آنها اشاره کرد. از سوی دیگر تناقض موضوع این است که بسیار خرده میگیرند بهبود هوش مصنوعی با توسعه بیشتر هوش مصنوعی شکل میگیرد.
امنیت
حریم خصوصی مشتریان و امنیت دادهها و مسئله «اخلاق دیجیتال و حریم خصوصی» یکی از ده موضوعات برتر پژوهشی گارتنر در سال ۲۰۱۹ بوده است.
یکی از نقاط قوت هوش مصنوعی و یادگیری ماشینی توانایی آن در بررسی سریع حجم زیادی از داده است؛ وظیفهای که انجامش توسط نیروی انسانی زمانبر است؛ اما سؤالی که ایجادشده این است که دادههای جمعآوریشده اولاً تا چه اندازهای امن هستند و دوم اینکه از این دادهها برای چه مقاصدی استفاده میشود؟
برای نمونه، استراق سمع فناوریهای هوش مصنوعی خبری که اخیراً سروصدای زیادی کرد، بیشتر در مورد دستیاران صوتی بود. دستیاران مجازی الکسا (Alexa) و سیری (Siri) امروزه بهواسطه گوشیها در همهجا حضور دارند؛ از اتومبیلها گرفته تا جیبهای شلوار و آشپزخانههایمان. هدف حضور این دستیاران این است که دستورات صوتی را پیروی کنند، اما درهرحال بخشی از مکالمههای ضبطشده افراد با این دستیاران توسط انسانها گوشداده میشود. نه آمازون، نه گوگل و نه اپل انکار نکردهاند که فایلهای صوتی ضبطشده، استراق سمع میشود.
به گزارش گاردین، اپل مدعی است که کمتر از یک درصد از فرمانهای صوتی، توسط کارکنان اپل بررسی میشوند. در این میان مسئله مهم این است که کاربران نمیدانند دقیقاً چه بخشی از زندگیشان از سوی غریبهها شنیده میشود. در بین این فایلها، مکالمههای مربوط به کسبوکار، بیماریها و غیره وجود دارد.
سوءنیت و اعمال شرورانه
یکی از مسائلی که امروز بسیار به آن اشاره میشود، سوءاستفادههایی است که میتوان از هوش مصنوعی کرد؛ این سوءاستفادهها میتواند از جانب دولتها یا موسسههای خصوصی باشد. پیشبینی میشود که بازار محصولات مرتبط باهوش مصنوعی تا سال ۲۰۲۵ به ارزش بیش از ۱۰۰ میلیارد دلار برسد. آیا چنین سهمی از بازار و درآمد باعث خواهد شد افراد بیشتری با سوءنیت سراغ این فناوری بروند؟
نمیتوان انکار کرد که فناوری، درعینحال که به نفع بشر است و کارهای او را در بسیاری از حوزهها بهویژه کارهای دستی، تسهیل کرده است، صرفاً همین جنبه را دارد. همین فناوری را میتوان در توسعه سلاحهای کشتارجمعی، دستکاری محصولات زراعی و غیره مورداستفاده قرارداد.
تأثیر بر مشاغل
فناوریهای اتوماسیون، درعینحال که بهرهوری و رشد را افزایش میدهند، تغییرات زیادی را در مقیاس وسیع در حوزه نیروی کار ایجاد میکنند و بر بخشهای متعدد، ترکیب مشاغل، مهارتهای موردنیاز و دستمزدها تأثیر میگذارند. نیمی از فعالیتهای فعلی که کارکنان در اروپا انجام میدهند میتواند خودکارسازی شود.
تخمین زده میشود که در پنج اقتصاد بزرگ اروپا _ فرانسه، آلمان، ایتالیا، اسپانیا و بریتانیا _ حدود ۹/۱ هزار میلیارد دلار صرف دستمزدها میشود و ۶۲ میلیون کارگر مشاغلی دارند که ازنظر فنی میتوان آنها را خودکار کرد.
درحالیکه اتوماسیون تقریباً بر همه مشاغل تأثیر خواهد گذاشت، تنها پنج درصد از فعالیتها بهطور کامل با استفاده از فناوریهای فعلی خودکارسازی شدهاند. بااینحال ما متوجه شدیم که حدود ۳۰ درصد فعالیتها در ۶۰ درصد از همه مشاغل میتوانند خودکارسازی شوند.
هوش مصنوعی اخلاق محور
مبحثی که در چند سال اخیر در حوزه میانرشتهای، پرسشهای زیادی را مطرح کرده است، اخلاق هوش مصنوعی است. هوش مصنوعی توانایی این را دارد که ماشینهای خودران را هدایت کند؛ اما سؤالی که در حیطه اخلاق مطرح میشود این است که هوش مصنوعی چگونه تصمیم خواهد گرفت به یک درخت بکوبد و ماشین آسیب بیشتری ببیند یا به کودکی که دارد از خیابان رد میشود؟ آیا انسان میتواند انتخابهای اخلاقی خود را به صفر و یکهای مطلق، بیاموزد؟
درواقع، چالش بر سر ترکیب الگوریتمها و تکنیکهایی است که به هوش مصنوعی امکان تصمیمگیری در زمینه مشکلات اخلاقی میدهد؛ مثلاً قربانی کردن یک نفر بهجای نجات چند نفر یا برعکس.
مسئولیت اجتماعی انسانها
آشکار است که قرار نیست فناوریها خود را کنترل کنند؛ انسانها مسئول این فناوریها و آسیبهای بالقوه آنها هستند.
بر اساس گزارش دانشگاه آکسفورد در سال ۲۰۱۹ حدود ۸۲ درصد از آمریکاییها معتقدند هوش مصنوعی و رباتها باید بهدقت مدیریت شوند. آیا ممکن است هوش مصنوعی بهاندازه ذهن انسان پیشرفته شود و اگر بله چه اتفاقی رخ خواهد داد؟ مدیران ارشد تحلیل یا مدیران ارشد داده باید بر آموزش هوش مصنوعی نظارت کنند تا اطمینان یابند در تصمیمهای هوش مصنوعی از آسیب جلوگیری میشود.
علاوه بر این هوش مصنوعی باید طوری باشد که بتواند در کنار شناسایی هک، کلاهبرداری و استفاده غلط از داده، با مشکلات انسانی سروکار داشته باشد و عدالت، مسئولیتپذیری، شفافیت و آسایش را اولویت قرار دهد.
هوش مصنوعی همانقدر که قدرت دارد آینده روشنتری را برای انسان رقم بزند، اگر توسعه آن با توجه به ارزشهای اخلاقی و انسانی نباشد، میتواند بدل به امری شرورانه شود.
از سوی دیگر، مسئولیت اجتماعی و هوش مصنوعی اخلاقی مهمترین مزیت رقابتی را برای شرکتها فراهم میآورند. توسعه مسئولانه اعتبار برند یک شرکت را تقویت میکند و روابطش با مشتریان یا کاربران را بهبود میبخشد و همچنین اعتماد آنها را افزایش میدهد. توسعه مسئولانه تهدیدها را برای کسبوکارها کاهش میدهد و عواقب نامطلوب را تا جای ممکن، حذف میکند.
یکی از ابزارها نوآوری و تحقیق مسئولانه (PRI) است که میتواند راهبردهای اخلاقی را وارد سازمانها کند. این رویکرد استراتژیک که اتحادیه اروپا در سالهای اخیر آن را توسعه داده است، سعی دارد تهدیدهای اجتماعی ناشی از پیشرفتهای علم و فناوری را کاهش دهد.