از وقتی نخستین ماشین ها در داستان های علمی ـ تخیلی پدیدار شدند، بذر ترس و نگرانی از طغیان و شورش ماشینی یا به عبارت بهتر، نافرمانی رباتیک در دل و فکر انسان ها کاشته شده است، اما این دلهره و چشم انداز تهدیدگرانه در حالی است که امروزه کارشناسان و دانشمندان هشدار و توجه دیگری را علیه تهدیدی افزون تر یا در واقع خائنانه مطرح می کنند که ما ممکن است بیش از حد مایل به زندگی کردن با آنها باشیم و این همان چشم انداز مبهم و بیمناکی است که تأمل و تفکر کارشناسان را برانگیخته است.
سال ۱۹۹۷ رباتی با نام سارکوز با قابلیت انجام اشارات و حرکات هنگام سخن گفتن و با هدف ارتباط برقرار کردن و صحبت با کودکان درباره فناوری در مرکز علوم کارنگی ساخته و پرداخته شد، اما آن سال ها با وجود توجه زیادی که چنین ربات هایی برانگیخت و با تغییراتی متفاوت به شخصیت اصلی برخی فیلم های مشهور با موضوع چالش میان انسان و ربات ها بدل شد. کسی از جایگاه آینده این ماشین ها و نفوذشان به ارکان اصلی زندگی روزمره انسان هزاره سوم تصور نزدیک و ملموسی نداشت. پیشروی و همه گیری ربات های اجتماعی در آینده نزدیک در حالی است که انتظار می رود تا سال ۲۰۱۵ این کلاس از ربات ها صنعتی ۱۵ میلیارد دلاری را رقم بزنند.
البته ربات ها از مدت ها پیش تراژدی به هراس افکندن ما را آغاز کرده بودند. سال ۱۹۲۱ در نمایشنامه ای از کشور چک با عنوان ربات های عالمگیر روسام(.R.U.R) همزمان واژه ربات و تهدید یک مکاشفه گر رباتی برای نخستین بار به ادبیات جهان معرفی شد.
در بیانیه صادر شده در پرده اول نمایش، ربات ها که به عنوان کارگران ارزان و مصرف شدنی به شمار می روند، قصد و غرضشان را بصراحت بیان می دارند: «ربات های جهان، ما شما را به قلع و قمع نوع بشر امر می فرماییم. از مردان مضایقه نکنید. از زنان مضایقه نکنید.» خاستگاه بد و شرورانه رباتیکی را می توان حتی جلوتر از این نیز دنبال کرد، اما ظهور کلی گونه های نوین ربات های عالمگیر در هیاتی مبتنی بر هیولا یا مایه ترس و وحشت، به داستان های علمی ـ تخیلی دهه های ۴۰ و ۵۰ میلادی و زمانی پیش از حوزه پژوهش حقیقی دانش رباتیک بازمی گردد. درواقع، آیساک آسیموف، نویسنده نوول «من، ربات» عبارت «رباتیکس» را در همان زمانی که کار تهیه و بسط قوانین اخلاقی برای ربات ها را در داستان های کوتاهش آغاز کرده بود، ابداع کرد.
تا سال ۱۹۸۴ که در فیلم ترمیناتور، آرنولد شوارتزنگر و شخصیت T ۸۰۰ وی، کل یک حوزه استحفاظی پلیس را به توپ بست، تمرد و یاغی گری ربات به یکی از قرص و محکم ترین کلیشه های فرهنگ عامه بدل شد. این فیلم از همان زمان در حکم عبارتی اختصاری برای نوعی هراس و دلهره مخصوص مطرح می شود: این که هوش مصنوعی آنچنان هوشمند خواهد شد که تنها به حفظ بقای خود می اندیشد. فیلم ترمیناتور توانست به شیوه تفکر ما درباره ربات ها، هوش مصنوعی و حتی توسعه سریع کسب و کار جنگ ورزی خودکار و بدون نفر رنگ و بویی متفاوت ببخشد. در همین رابطه، اداره تحقیقات نیروی دریایی آمریکا این موضوع که رهنمودهای اخلاقی برای ربات های نظامی لازم هستند یا خیر را مورد مطالعه قرار داد و سال ۲۰۰۸ طی گزارشی مقدماتی درخصوص این پایان بازی بسیار ملال انگیز و بی سرانجام احتمالی فکری کردند و قرار شد در مورد سناریوهای ترمیناتوری که در آن ماشین ها علیه ما کار می کنند، کمتر از انسان استفاده شود.
اما براساس گزارش پاتریک لین، دانشیار پیوسته فلسفه در دانشگاه پلی تکنیک کالیفرنیا و اخلاق گرایی که کار برنامه ریزی برای توسعه رهنمودها و مقررات اخلاقی در مورد ربات های اجتماعی بهیار را نیز برعهده دارد، نیاز به مقررات اخلاقی برای ربات ها به میادین جنگ محدود نمی شود. ربات های اجتماعی در مقایسه با یک ربات نظامی احتمالا ریسک بزرگ تری را درخصوص افراد مطرح می کنند. ربات های اجتماعی مسلح نخواهند بود، ولی خیلی زودتر از تصور ما با آنها چهره در چهره خواهیم شد.
البته این صحبت ها تا اینجای کار در حد نقل قول هایی بیشتر نیست و جزییات داغ تر درباره خطر فرضی خودسازماندهی هوش مصنوعی و جنبه غیرمسوولانه و غیراخلاقی ربات ها در تهدید مسلحانه غیرنظامیان در میان رسانه ها مطرح است، اما تهدیدهای واقعی مطرح شده از سوی ربات ها ممکن است ربطی به سناریوهای ترمیناتوری نداشته باشد؛ چون ربات ها در مقام مقایسه با یاغیان مسلح گنگ و لال عملا مغزهای مرده محسوب می شوند. مثلا اگر ربات نکسی را به عنوان یکی از پیشرفته ترین ربات های اجتماعی جهان مورد ملاحظه قرار دهیم، می بینیم که تنها می تواند مقدماتی ترین ساختارهای آوایی را بفهمد. وقتی چشمان شما رباتی از همان انواعی که ما فکر می کنیم، موجودیتی خودکار است را می بیند ـ یعنی متحرک، کنشگر و کارکردپذیر تحت قدرت و اراده خودش ـ سلول های عصبی آیینه ای ما به حالت شلیک عصبی درمی آیند. این سلول ها درواقع همان سلول های عصبی ما هستند که به وقت تماشای سایر جانوران در حرکت نیز فعال می شوند و شک دانشمندان عصب شناس مبنی بر رابطه آنها با یادگیری از راه تقلید را برانگیخته است. سلول های عصبی آیینه ای درباره مجسمه ای مومی یا یک هواپیمای مدل کنترل از راه دور می توانند کمتر مراقبت و توجه کنند و این ربات خودکار است که فیوزها را طوری روشن کند و ذهن را چنان فریب دهد تا در روبه رو شدن با دستگاهی مکانیکی آن را در حکم چیزی زنده تلقی کند.
یک ربات می تواند درباره احتمالات و امکانات فکر کند، امافعلا نمی تواند هیچ تفکری درباره پیامدها و نتایج تصمیم گیری هایش داشته باشد
و هنوز مثل بسیاری از جنبه های رابطه متقابل انسان ـ ربات، کل این فرآیند بازگردانی و واکنش انعکاسی ناشناخته است. نویسندگان داستان های علمی ـ تخیلی ممکن است چیزی در حدود نیم قرن نظریه پردازی را درباره تاثیرات بلندمدت زندگی با ربات ها از سر گذرانده باشند، اما برای علم تنها گام نهادن در آغاز راه محسوب می شود.
در حالی که حوزه پژوهش رابطه متقابل انسان ـ ربات به کار جمع آوری داده ها و مرتب کردن روش شناسی های آن سرگرم است، ترسیم و بیرون کشیدن نتایج محکم می تواند غیرممکن یا دست کم غیرمسوولانه و نامعتبر جلوه نماید. مثلا درخصوص همین سلول های عصبی انعکاسی، دانشمندان علم اعصاب می توانند تا حد ناخنک زدنی به آنها نزدیک شوند، اما نتیجه گیری و اظهارنظر در مورد هدف و مقصد دقیق این سلول های عصبی هنوز محل شک و تردید دانشمندان است. مثال بارز و معمول تر، راجع به پاسخ اسرارآمیز مغز به ربات ها به عبارتی تحت عنوان دره مرموز و ناشناخته اشاره دارد که می گوید ربات ها غیرعادی و مرموز هستند.
این عبارت سال ۱۹۷۰ طی مقاله ای توسط ماشاهیرو موری، دانشمند حوزه رباتیک مطرح شد و نموداری را توصیف می کند که نشان می دهد انسان ها احساس خودمانی تر و احتمالا راحت تری با ماشین های انسان نما دارند. براین اساس همانقدر که ماشین به انسان شبیه تر می شود، همان هشدارهای روان شناختی را آزاد می سازد که با دیدن انسانی مرده یا ناخوش مرتبط است. در همین نقطه است که نمودار در سراشیبی قرار می گیرد و سپس دوباره با واکنش به یک وجود انسانی حقیقی یا به لحاظ نظری با نام یک ماشین آدم نما صعود می کند. در واقع این وضعیت مبهم هر تعریفی که داشته باشد، نمی تواند صرفا ترس خشک و خالی به شمار رود، اما آمیزه ای از صمیمیت و خودمانی بودن و ترس یا جاذبه و دافعه خواهد بود.
به باور روان شناسان، هنگام رویارویی انسان با ربات انسانی لحظه ای از ناهماهنگی یا ناهنجاری شناختی است که مغز نمی تواند تطبیق دهد، مثل مواجه شدن با یک درخت سخنگو یا جسدی خندان که مغز ما نمی تواند واقعیت آن لحظه را برای ما تعریف کند.
در همین خصوص کوین وارویک، دانشیار علوم سایبرنتیک دانشگاه ردینگ انگلستان معتقد است برای یک هوش مصنوعی خیلی کار دشواری خواهد بود که با حس و شعوری جسمانی به کار نقشه کشیدن و طرح ریزی بپردازد. به باور وی، یک ربات می تواند درباره احتمالات و امکانات فکر کند، اما نمی تواند درباره پیامدها و نتایج تصمیم گیری هایش حتی گامی رو به جلو فکر کند. این در حالی است که مثل هر تقابل انسان و ماشین که تاکنون در سابقه زندگی انسان معاصر می توان پی گرفت، توجه روزافزون به مقوله استقبال از ربات های همقطار و همیار نیز بیش از هر چیز، لایه های سطحی و جذابیت های ماشینی آن بر سایر چالش های آینده فراگیر شدن این رابطه سایه افکنده و با مقوله ترس روان شناختی از ماشینی که در خلوت ما حضور دارد و احیانا چند فیلم و داستان در این ژانر، سخت می توان باور عمومی نسبت به این مهم را هشیار کرد.
به باور کارشناسان حوزه سایبرنتیک و رفتارشناسان، زمانی که یک ماشین می تواند دکمه های غریزی ـ زیستی ما را به این راحتی فشار دهد، پس باید انتظار داشت قیود و ملاحظات عمیقا نهادینه شده خویش را با تنها یک لرزش بموقع پلک های مصنوعی ربات از یاد برده و تسلیم شویم، شاید در روابط متقابل آینده انسان و ربات های اجتماعی، مساله هراس و ترسیدن از این پس همچون واکنشی از روی ندانستن و جهل نباشد و شاید ما تنها از چیزی غلط و اشتباهی ترسیده بودیم.
سایت future technology
مترجم: مهریار میرنیا
سال ۱۹۹۷ رباتی با نام سارکوز با قابلیت انجام اشارات و حرکات هنگام سخن گفتن و با هدف ارتباط برقرار کردن و صحبت با کودکان درباره فناوری در مرکز علوم کارنگی ساخته و پرداخته شد، اما آن سال ها با وجود توجه زیادی که چنین ربات هایی برانگیخت و با تغییراتی متفاوت به شخصیت اصلی برخی فیلم های مشهور با موضوع چالش میان انسان و ربات ها بدل شد. کسی از جایگاه آینده این ماشین ها و نفوذشان به ارکان اصلی زندگی روزمره انسان هزاره سوم تصور نزدیک و ملموسی نداشت. پیشروی و همه گیری ربات های اجتماعی در آینده نزدیک در حالی است که انتظار می رود تا سال ۲۰۱۵ این کلاس از ربات ها صنعتی ۱۵ میلیارد دلاری را رقم بزنند.
البته ربات ها از مدت ها پیش تراژدی به هراس افکندن ما را آغاز کرده بودند. سال ۱۹۲۱ در نمایشنامه ای از کشور چک با عنوان ربات های عالمگیر روسام(.R.U.R) همزمان واژه ربات و تهدید یک مکاشفه گر رباتی برای نخستین بار به ادبیات جهان معرفی شد.
در بیانیه صادر شده در پرده اول نمایش، ربات ها که به عنوان کارگران ارزان و مصرف شدنی به شمار می روند، قصد و غرضشان را بصراحت بیان می دارند: «ربات های جهان، ما شما را به قلع و قمع نوع بشر امر می فرماییم. از مردان مضایقه نکنید. از زنان مضایقه نکنید.» خاستگاه بد و شرورانه رباتیکی را می توان حتی جلوتر از این نیز دنبال کرد، اما ظهور کلی گونه های نوین ربات های عالمگیر در هیاتی مبتنی بر هیولا یا مایه ترس و وحشت، به داستان های علمی ـ تخیلی دهه های ۴۰ و ۵۰ میلادی و زمانی پیش از حوزه پژوهش حقیقی دانش رباتیک بازمی گردد. درواقع، آیساک آسیموف، نویسنده نوول «من، ربات» عبارت «رباتیکس» را در همان زمانی که کار تهیه و بسط قوانین اخلاقی برای ربات ها را در داستان های کوتاهش آغاز کرده بود، ابداع کرد.
تا سال ۱۹۸۴ که در فیلم ترمیناتور، آرنولد شوارتزنگر و شخصیت T ۸۰۰ وی، کل یک حوزه استحفاظی پلیس را به توپ بست، تمرد و یاغی گری ربات به یکی از قرص و محکم ترین کلیشه های فرهنگ عامه بدل شد. این فیلم از همان زمان در حکم عبارتی اختصاری برای نوعی هراس و دلهره مخصوص مطرح می شود: این که هوش مصنوعی آنچنان هوشمند خواهد شد که تنها به حفظ بقای خود می اندیشد. فیلم ترمیناتور توانست به شیوه تفکر ما درباره ربات ها، هوش مصنوعی و حتی توسعه سریع کسب و کار جنگ ورزی خودکار و بدون نفر رنگ و بویی متفاوت ببخشد. در همین رابطه، اداره تحقیقات نیروی دریایی آمریکا این موضوع که رهنمودهای اخلاقی برای ربات های نظامی لازم هستند یا خیر را مورد مطالعه قرار داد و سال ۲۰۰۸ طی گزارشی مقدماتی درخصوص این پایان بازی بسیار ملال انگیز و بی سرانجام احتمالی فکری کردند و قرار شد در مورد سناریوهای ترمیناتوری که در آن ماشین ها علیه ما کار می کنند، کمتر از انسان استفاده شود.
اما براساس گزارش پاتریک لین، دانشیار پیوسته فلسفه در دانشگاه پلی تکنیک کالیفرنیا و اخلاق گرایی که کار برنامه ریزی برای توسعه رهنمودها و مقررات اخلاقی در مورد ربات های اجتماعی بهیار را نیز برعهده دارد، نیاز به مقررات اخلاقی برای ربات ها به میادین جنگ محدود نمی شود. ربات های اجتماعی در مقایسه با یک ربات نظامی احتمالا ریسک بزرگ تری را درخصوص افراد مطرح می کنند. ربات های اجتماعی مسلح نخواهند بود، ولی خیلی زودتر از تصور ما با آنها چهره در چهره خواهیم شد.
البته این صحبت ها تا اینجای کار در حد نقل قول هایی بیشتر نیست و جزییات داغ تر درباره خطر فرضی خودسازماندهی هوش مصنوعی و جنبه غیرمسوولانه و غیراخلاقی ربات ها در تهدید مسلحانه غیرنظامیان در میان رسانه ها مطرح است، اما تهدیدهای واقعی مطرح شده از سوی ربات ها ممکن است ربطی به سناریوهای ترمیناتوری نداشته باشد؛ چون ربات ها در مقام مقایسه با یاغیان مسلح گنگ و لال عملا مغزهای مرده محسوب می شوند. مثلا اگر ربات نکسی را به عنوان یکی از پیشرفته ترین ربات های اجتماعی جهان مورد ملاحظه قرار دهیم، می بینیم که تنها می تواند مقدماتی ترین ساختارهای آوایی را بفهمد. وقتی چشمان شما رباتی از همان انواعی که ما فکر می کنیم، موجودیتی خودکار است را می بیند ـ یعنی متحرک، کنشگر و کارکردپذیر تحت قدرت و اراده خودش ـ سلول های عصبی آیینه ای ما به حالت شلیک عصبی درمی آیند. این سلول ها درواقع همان سلول های عصبی ما هستند که به وقت تماشای سایر جانوران در حرکت نیز فعال می شوند و شک دانشمندان عصب شناس مبنی بر رابطه آنها با یادگیری از راه تقلید را برانگیخته است. سلول های عصبی آیینه ای درباره مجسمه ای مومی یا یک هواپیمای مدل کنترل از راه دور می توانند کمتر مراقبت و توجه کنند و این ربات خودکار است که فیوزها را طوری روشن کند و ذهن را چنان فریب دهد تا در روبه رو شدن با دستگاهی مکانیکی آن را در حکم چیزی زنده تلقی کند.
یک ربات می تواند درباره احتمالات و امکانات فکر کند، امافعلا نمی تواند هیچ تفکری درباره پیامدها و نتایج تصمیم گیری هایش داشته باشد
و هنوز مثل بسیاری از جنبه های رابطه متقابل انسان ـ ربات، کل این فرآیند بازگردانی و واکنش انعکاسی ناشناخته است. نویسندگان داستان های علمی ـ تخیلی ممکن است چیزی در حدود نیم قرن نظریه پردازی را درباره تاثیرات بلندمدت زندگی با ربات ها از سر گذرانده باشند، اما برای علم تنها گام نهادن در آغاز راه محسوب می شود.
در حالی که حوزه پژوهش رابطه متقابل انسان ـ ربات به کار جمع آوری داده ها و مرتب کردن روش شناسی های آن سرگرم است، ترسیم و بیرون کشیدن نتایج محکم می تواند غیرممکن یا دست کم غیرمسوولانه و نامعتبر جلوه نماید. مثلا درخصوص همین سلول های عصبی انعکاسی، دانشمندان علم اعصاب می توانند تا حد ناخنک زدنی به آنها نزدیک شوند، اما نتیجه گیری و اظهارنظر در مورد هدف و مقصد دقیق این سلول های عصبی هنوز محل شک و تردید دانشمندان است. مثال بارز و معمول تر، راجع به پاسخ اسرارآمیز مغز به ربات ها به عبارتی تحت عنوان دره مرموز و ناشناخته اشاره دارد که می گوید ربات ها غیرعادی و مرموز هستند.
این عبارت سال ۱۹۷۰ طی مقاله ای توسط ماشاهیرو موری، دانشمند حوزه رباتیک مطرح شد و نموداری را توصیف می کند که نشان می دهد انسان ها احساس خودمانی تر و احتمالا راحت تری با ماشین های انسان نما دارند. براین اساس همانقدر که ماشین به انسان شبیه تر می شود، همان هشدارهای روان شناختی را آزاد می سازد که با دیدن انسانی مرده یا ناخوش مرتبط است. در همین نقطه است که نمودار در سراشیبی قرار می گیرد و سپس دوباره با واکنش به یک وجود انسانی حقیقی یا به لحاظ نظری با نام یک ماشین آدم نما صعود می کند. در واقع این وضعیت مبهم هر تعریفی که داشته باشد، نمی تواند صرفا ترس خشک و خالی به شمار رود، اما آمیزه ای از صمیمیت و خودمانی بودن و ترس یا جاذبه و دافعه خواهد بود.
به باور روان شناسان، هنگام رویارویی انسان با ربات انسانی لحظه ای از ناهماهنگی یا ناهنجاری شناختی است که مغز نمی تواند تطبیق دهد، مثل مواجه شدن با یک درخت سخنگو یا جسدی خندان که مغز ما نمی تواند واقعیت آن لحظه را برای ما تعریف کند.
در همین خصوص کوین وارویک، دانشیار علوم سایبرنتیک دانشگاه ردینگ انگلستان معتقد است برای یک هوش مصنوعی خیلی کار دشواری خواهد بود که با حس و شعوری جسمانی به کار نقشه کشیدن و طرح ریزی بپردازد. به باور وی، یک ربات می تواند درباره احتمالات و امکانات فکر کند، اما نمی تواند درباره پیامدها و نتایج تصمیم گیری هایش حتی گامی رو به جلو فکر کند. این در حالی است که مثل هر تقابل انسان و ماشین که تاکنون در سابقه زندگی انسان معاصر می توان پی گرفت، توجه روزافزون به مقوله استقبال از ربات های همقطار و همیار نیز بیش از هر چیز، لایه های سطحی و جذابیت های ماشینی آن بر سایر چالش های آینده فراگیر شدن این رابطه سایه افکنده و با مقوله ترس روان شناختی از ماشینی که در خلوت ما حضور دارد و احیانا چند فیلم و داستان در این ژانر، سخت می توان باور عمومی نسبت به این مهم را هشیار کرد.
به باور کارشناسان حوزه سایبرنتیک و رفتارشناسان، زمانی که یک ماشین می تواند دکمه های غریزی ـ زیستی ما را به این راحتی فشار دهد، پس باید انتظار داشت قیود و ملاحظات عمیقا نهادینه شده خویش را با تنها یک لرزش بموقع پلک های مصنوعی ربات از یاد برده و تسلیم شویم، شاید در روابط متقابل آینده انسان و ربات های اجتماعی، مساله هراس و ترسیدن از این پس همچون واکنشی از روی ندانستن و جهل نباشد و شاید ما تنها از چیزی غلط و اشتباهی ترسیده بودیم.
سایت future technology
مترجم: مهریار میرنیا