تا اسم هوش مصنوعی میآید، همه ما یاد فیلمهای علمیتخیلی میافتیم که در آن رباتها زمین را تسخیر کرده و انسانهای بیچاره را به بردگی گرفته اند. یک لحظه این تصورات را کنار بگذارید و به معنای واقعی هوش مصنوعی فکر کنید. یعنی وقتی که برنامههای کامپیوتری رشد میکنند و خودشان را ارتقا میدهند، که اتفاقا خیلی هم جالب است. اخیرا گوگل (Google) یک برنامه جالب را به نمایش گذاشت؛ آنها این برنامه را به یک بازی در کنسول PS4 متصل کردند. بعد از گذشت چند ساعت این برنامه به خودش یاد داد که چطور بازی کند و چند ساعت بعد میتوانست بهتر از هر انسانی بازی کند. با این که کمیترسناک است، اما قدرت تکنولوژی را نشان میدهد.
یکی از موضوعاتی که هر روز در رسانهها پر رنگ تر میشود، خودروهای بدون راننده است. اکثر غولهای تکنولوژی هم سعی کرده اند از این قضیه عقب نیفتند؛ اپل (Apple) به تازگی یک مدیر هوش مصنوعی، احتمالا برای ساخت یکی از همین خودروها، استخدام کرده و گوگل هم تا حالا خودروی بدون راننده اش را هزاران کیلومتر تست کرده است. همین مساله مشکلات اخلاقی-ماشینی زیادی را به بار میآورد.
فرض کنید یک خودروی بدون راننده در شرایطی قرار بگیرد که مجبور شود بین برخورد به 10 آدم و تصادف با دیوار (که منجر به کشتن راننده میشود)، یکی را انتخاب کند. چطور باید عمل کند؟ یا مثلا چطور باید احتمال کم مجروح کردن یک انسان را با احتمال قطعی آسیب زدن به مواد گران قیمت مقایسه کند و تصمیم بگیرد؟ این لیست به همین جا ختم نمیشود و ادامه دارد.
خیلی خوب میشود اگر فرضا خودروهای بدون راننده بتوانند تعداد تصادفات رانندگی را به نصف برسانند، درسته؟ حالا، مثلا، به جای 40 هزار تصادف، 20 هزار تصادف رخ داده و شرکت سازنده خودرو با 20 هزار پرونده حقوقی رو به رو شده است. آیا مسائل قانونی حاکم بر هوش مصنوعی باید با قوانینی که اعمال ما را کنترل میکند، متفاوت باشد؟
سلاحهای فوق قدرتمند چطور؟ آیا میتوانیم آنها را به دست هوش مصنوعی بسپاریم؟ اگر بخواهیم این کار را بکنیم باید یک سری قوانین بشردوستانه را در آنها به صورت نرم افزاری و سخت افزاری پیاده سازی کنیم. اگر همه چیز حساب شده باشد، شاید حتی برنامه ای که سلاح را کنترل میکند نسبت به انسان تصمیمات عجولانه کمتری بگیرد. اما یاد دادن ارزشهای انسانی و چگونگی عمل کردن آنها به یک برنامه کامپیوتری به این سادگیها نیست.
موضوع دیگری که باید به آن رسیدگی کنیم “میل” رباتها به ارتقای خودشان میباشد. آنها با داشتن همین ویژگی میتوانند وظایفشان را بهتر انجام داده، کارآمد تر شده و در نتیجه بسیار قدرتمند شوند. اما همین مساله سوالهای زیادی را بر میانگیزد. رباتی که میخواهد تواناییهایش را ارتقا دهد تا بتواند به یک سری اهداف انسانی دست یابد، میتواند سخت افزار و نرم افزارش را ارتقا دهد، مدلی بهتر از دنیا را بسازد و غیره. به بیان دیگر، آیا این کارها باعث میشود که حفظ جان و بقای خودش برایش اهمیت پیدا کند؟ یا بخواهد به منابع نامحدود دسترسی پیدا کند؟ در واقع، چطور میتوانیم مطمئین شویم که هوش مصنوعی بعد از تکامل خودش همچنان به اهداف و ارزشهاي انسانی وفادار میماند؟
بدون شک ما انسانها میخواهیم که ارزشها، به خصوص ارزشهای اخلاقی مثل مهربانی و بخشش، را به رباتها بفهمانیم. اما آنها چقدر باید به این ارزشها پایبند باشند؟ اصلا کدام ارزشهای اخلاقی را باید به آنها بیاموزیم؟ ما در سیاره ای زندگی میکنیم که فرهنگها و عقاید بسیاری در آن وجود دارد. چه کسی باید تصمیم گیرنده باشد؟
اگر هوش مصنوعی بفهمد دنیایی که برای آن ترسیم کرده ایم با واقعیت فرق دارد، چه؟ یا اگر مثلا به او ماموریت داده شود که یک بیماری خاص را از کشوری ریشه کن کند، بعد از رسیدن به هدفش میتواند این ارزشها را دوباره تعریف کند یا آنها را بسط دهد؟
اگرچه همه این مسائل ترسناک به نظر میرسد- بله تا حدودی هم به فیلمهاهالیوودی شباهت دارد- اما منافع آن هم فوق العاده است و تصور داشتن جهانی بدون فقر و بیماری را ممکن میکند. برای نمونه تصور کنید یک ابر-کامپیوتر با داشتن یک هوش مصنوعی مهربان میتوانست راه حلی هوشمندانه برای ریشه کن کردن بیماری ابولا (Ebola) در فقیر ترین نقاط جهان پیدا کند، عالی میشد نه؟
باید هر چه زودتر چاره ای برای حل سوالهای مطرح شده، پیدا کرد و پاسخ این سوالها باید از طرف ما، یعنی جامعه، مطرح شود، نه کارخانهها و صنایع توسعه دهنده هوش مصنوعی.
برچسب های مهم