1-6-1-1فاعل هاي مصنوعي خوب یا بد؟
سيستم هاي خودكار در حال آمدن هستند، چه مردم آنها را دوست داشته باشند و چه دوست نداشته باشند. آيا آنها اخلاقي خواهند بود؟ آيا آنها خوب خواهند بود؟
منظور ما از لغت ” خوب”، صرفاَ به معناي موضوع خوب بودن ابزاري نيست – خوب بودن براي هدفي خاص. دیپ بلو[1] يك شطرنج باز كامپيوتري خوب است، زيرا در بازي هاي شطرنج برنده مي شود، اما اين معنايي نيست كه مورد نظر ما است. آن نوع رفتار خوب كه ممكن است مورد نياز سيستم هاي خودكار باشند، به آساني مشخص نمی شود. مثلاً آيا يك فاعل خودمختار خوب، اگر نتواند بدون صدمه زدن به انسان ها كاري انجام دهد، به ناظر انساني هشدار مي دهد؟ وقتي ما درباره خوب در اين معنا صحبت مي كنيم، وارد حوزه اخلاق مي شويم. یک فاعل هاي اخلاقي خوب، آن است که بتواند امکان صدمه زدن یا چشم پوشی از وظیفه را کشف کند و بتواند برای جلوگیری از وقوع آن و یا به حداقل رساندن چنین پیامدهایی قدم بردارد. دو راه براي انجام اين عمل وجود دارد: اول آنكه، شخص برنامه نويس ممكن است قادر باشد اعمال ممكن را پيش بيني كند و قوانيني را تهيه كند تا منجر به نتيجه دلخواه در محدوده شرايطي شود كه AMA ها بايد در آن شرايط قرار داشته باشند. دوم آنکه در نهايت شخص برنامه نويس ممكن است سيستم وسیع تری را بسازد كه اطلاعات جمع مي كند، تلاش مي كند تا نتايج عمل خود را پيش بيني كند، و پاسخي را براي چالش تنظيم مي كند. چنين سيستمي حتي ممكن است با راه حل هاي كاملاَ نو يا خلاقانه به چالش هاي اخلاقي، پتانسيل غافلگير كردن برنامه نويسان خود را داشته باشد.
هر جا كه فرد به اين سؤال مي رسد كه آيا يك ماشين مي تواند به طور واقعي اخلاقي باشد، يك چالش مهندسي مطرح مي شود: چطور بايد فاعل هاي مصنوعي را به عمل واداشت گويي كه آنها فاعل هاي اخلاقي هستند. اگر بخواهیم به ماشين هاي چند منظوره بايد اعتماد كنیم، بايد اين اطمينان وجود داشته باشد كه رفتار آنها هنجار مناسب را قانع كند. اين فراتر از امنيت سنتي محصول است. اگر سيستم خودمختار موظف است تا آسيب را به حداقل برساند، بايد از نتايج خطرناك احتمالي اعمالش هم “آگاه “[2] باشد ، و بايد اعمالش را در پرتو اين “دانش”[3] انتخاب كند، حتي اگر اين عبارات براي ماشين ها به طور استعاره اي به كار روند.
1-6-1-2 آیا انسانیت از کامپیوترها می خواهد که تصمیم های اخلاقی بگیرند؟
دسته دیگری از مسائل و نگرانیهایی که درباره پیشرفت تکنولوژی و استفاده از آن وجود دارند، نگرانیهای شخصی تر ماست درباره آنچه که این تکنولوژیها درباره خود انسانها آشکار می کنند. امروزه محوریت تکنولوژی بر ماهیت انسانی، موضوع اصلی در فلسفه انسانهاست، موضوعی که به دوره قبل از ارسطو مربوط می شود. فیلسوفان فن آوری، با نقشی سر و کار دارند که تکنولوژی در فرهنگ انسانها بازی می کند، از جمله ارزشها و سودهایی که در نتیجه تکنولوژی بدست می آید.
در اینجا دو مفهوم از ارزشها وجود دارند: از طرفی ارزشهای خارجی ای وجود دارند که چه تکنولوژی در رفاه عمومی مشارکت داشته باشد چه نداشته باشد ما با این ارزشها سر و کار داریم. آیا سلاح های هسته ای، شبیه سازی و هوش مصنوعی بطور کلی چیزهای خوبی هستند؟ هواپیماها، قطارها و اتومبیل ها چطور؟ از طرف دیگر، ارزشهای درونی وجود دارند که با این امر سرو کار دارند که تکنولوژی با معنای انسانیت چه می کند؟ آیا همانطور که اندی کلاک [4]می گوید، ما” «سازواره های مجازی بطور طبیعی متولد شده»[5] هستیم، که تکنولوژیها را آنقدرارتقا می دهیم، تا حدی که بطور واقعی با آنها یکی می شویم؟”[6] آیا می توان تکنولوژی را به سادگی دورانداخت؟ یک تنش فلسفی بین خودمختاری انسان و وابستگی اش به تکنولوژی وجود دارد.
بعلاوه معنایی وجود دارد که طبق آن معنا، قبول کردن تکنولوژیهای جدید نه تنها استعداد انسان را خراب می کند، بلکه می تواند شخصیت و خودآگاهی انسان را تغییر دهد. شری ترکل[7]، جامعه شناسی از دانشگاه ام آی تی می نویسد: «ورای مشغولیت ذهنی ما یک سؤال بیان نشده درباره آینده تکنولوژی وجود دارد. این سؤال درباره آن نیست که تکنولوژی در آینده چه شکلی خواهد داشت، بلکه بیشتر درباره آن است که ما چه شکلی خواهیم بود، همانطور که بطور فزاینده ای روابط صمیمانه ای را با ماشین ها برقرار می کنیم؟”[8]
فلسفه تکنولوژی سؤالاتی را درباره آزادی و کرامت انسان در جامعه ایکه بطور فزاینده ای تکنولوژیکی می شود مطرح می کند. برای مثال آیا این درست است که بسیاری از مردم در جوامع بسیار صنعتی دارای مشاغل تکراری و احمقانه هستند؟
توسعه برخی تکنولوزیهای جدید مثل مهندسی ژنتیک و نانوتکنولوژی این ترس را ایجاد می کند که فرآیندهای قدرتمند آنقدردر حال پیشرفت هستند که ممکن است انسانها نتوانند آن را کنترل کنند. بسیاری از همین نگرانیها در رابطه با روباتها مطرح می شوند.
1-6-1-3 قدرت فریبدگی تکنولوژی
در سال 1994، “فریتز هایدر”[9] و “ماری آن سیمل”[10]، یک آزمون قدیمی را منتشر کردند که در آن آزمون آنها نشان می دادند که برای مردم، مشارکت ویژگیهای انسانی در چیزهایی که آنها آن را موجود زنده می دانند، چقدر طبیعی است. در این آزمایش آنها، به سوژه خود فیلم هایی از اشکال هندسی ساده نشان دادند که در یک صفحه نمایش خالی حرکت می کردند و از آنها خواسته شد که آنچه را که دیدند، توصیف کنند. هر فرد بطور خود بخود حرکت این اشیا را با کلماتی مثل، خواسته ها، ترس ها، و نیازها توصیف می کرد. وقتی که یکی از مثلث ها مثلث دیگری را تعقیب می کرد و مثلث دوم به طور متناوب مسیر حرکت خود را تغییر می داد، مثلث اول به عنوان تعقیب کننده مثلث دوم شناخته می شد یا مثلث دوم به عنوان مثلثی دیده می شد که از مثلث اول ترسیده است یا از دست او در حال فرار است. در اینجا سوژه ها بطور خود به خود، انسانی شده اند و تمایلاتی را روی اشیا منعکس می کنند. برای آنها بسیار سخت است که این فعالیت را بر حسب عبارات هندسی توضیح دهند. به تازگی بسیاری از آزمایشات دوباره تأیید کرده اند که چگونه انسانها مشتاقانه توجه خود را به اشیاء جاندار معطوف می کنند.
انسانها در رابطه با حیوانات خانگی خود گاهی اوقات به گونه ای برخورد می کنند که گویی آنها انسان هستند، اما بیشتر مردم احساس می کنند که آنچه که حیوانات خانگی درک می کنند محدود است. شرکتهای اسباب بازی تشخیص داده اند که می توانند روی تمایل طبیعی برای فرافکنی حالات عاطفی و تمایلات به سمت اشیا جاندار در طراحی عروسکها، حیوانات خانگی روباتی و اشیاء دیگر، سرمایه گذاری کنند. وقتی یک سگ روباتی دم خود را تکان می دهد یا لی لی می کند تا کسی به او توجه کند، او “خوشحال” نیست، او هیچ حالت درونی که قابل مقایسه با عواطف انسانی باشد یا حتی عواطف یک حیوان را ندارد. اگر چه سؤالات تحقیقی جالبی وجود دارند که متوجه چنین حقه هایی هستند تا روانشناسان اجتماعی را متقاعد کنند، اما به خوبی مشخص شده که آن اسباب بازیها در ابتدا برای اینکه سرگرم کننده باشند طراحی شده اند. شرکت سونی[11] روبات جذاب انسان نمای خود را با جمله “QRIO می خواهد دوست تو باشد.”[12] عرضه کرد. اما البته QRIO چیزی نمی خواهد. سازنده می خواهد که شما QRIO را بخرید. (یا حداقل تا زمانی که مدیر عامل آمریکایی آنها بخش ساخت روبات را در سال 2006 بست، آنها این را می خواستند.)
شواهدی وجود دارند که اثبات می کنند تولید تکنولوژی با مهارتهای شبه انسانی می تواند تعامل بین انسانها و کامپیوترها و ابزارها و روباتهای آنها را تسهیل کند. بسیاری از مصرف کنندگان، اتومبیل ها و کامپیوترهایی را که با صدای بلند با آنها صحبت می کنند را دوست دارند. دانشمندان در گروه روباتهای شبه انسانی در ام آی تی، تشریح می کنند که سیستم هایی که به گونه ای طراحی شده اند تا رفتارهای اجتماعی اساسی انسان را تشخیص دهند و اگر بتوانند به رفتارهای اجتماعی شبه انسانی پاسخ دهند، می توانند تعاملات انسان- روبات را تسهیل کنند.
شاید معروف ترین روبات اجتماعی کیسمت[13] باشد. هیچ کس ادعا نمی کند که کیسمت تمایل ذاتی و خبره اجتماعی دارد. آنچه که قابل توجه است آن است که حتی در پایین ترین سطح مکانیزم اجتماعی و ماشینی، گفتن این حرف که کیسمت زنده است و واقعاً در تعاملات اجتماعی مشارکت دارد، می تواند کاملاً باورپذیر باشد. (بعضی از دانش آموزان در کلاس های ما وقتی می بینند کیسمت بد اخلاق شده است، احساس بدی دارند.)
یقیناً روباتهایی مثل کیسمت که برخی ویژگیها و حرکات شبه انسانی دارند؛ می توانند تعامل با تکنولوژی را ساده تر و راحت تر کنند. ماساهیرو ماری[14]،یک روبات شناسی ژاپنی، در سال 1970 این تئوری را مطرح کرد که انسانها با روباتهایی که ویژگیها و حرکات شبه انسانی دارند راحت تر و همدل تر هستند، اما وقتی که آنها خیلی شبیه انسان می شوند، مردم در کنار آنها احساس عدم آرامش می کنند و یا حتی از آنها اظهار تنفر می کنند. این ناهنجاری توسط چیزی ایجاد شده که می خواهد انسان باشد اما توقعات انسان را نمی تواند برآورده کند. با وجود تکنولوژی که هر روزه به روز می شود، روباتهایی که شبیه انسان هستند اما بطور واضح از انسانها در ظاهر و اعمالشان متمایز هستند بهتر از آدم آهنی هایی هستند که تعامل روبات و انسانی را تسهیل می کنند.
تکنیک هایی که ایجاد شدند تا به کیسمت توانایی تشخیص اشاره های اساسی اجتماعی را بدهند و او را قادرسازند تا با رفتارهای اجتماعی مکمل به این اشارات پاسخ دهد، در واقع به خاطر طراحی و بازاریابی اسباب بازی و روباتهای خدماتی هستند. از دیدگاه متدینان همه این تکنیک ها شکلهای مختلف فریب هستند. اما به نظر نمی آید که مصرف کنندگان این را یک مسئله اخلاقی تلقی کنند زیرا آنها فکر می کنند که ارزش سرگرم کنندگی این تکنیک ها و قابلیت استفاده از چنین محصولاتی این احتمال را از بین می برد که این محصولات با هدف شرارت طراحی شده باشند.
اگرعکس العمل انسانها به این تکنولوژی ها مثبت باشد، باز هم مشکلاتی وجود خواهند داشت. برای مثال به آزمایشی توجه کنید که توسط جامعه شناس، شری ترکل انجام شد، کسی که عروسکهای روباتیک را وارد خانه سالمندان کرد. عروسک هایی که او به ساکنان این اماکن قرض داده بود از نظر تجاری ناموفق بوند و نتوانسته بوند علاقه مصرف کنندگان جوان وخبره را جلب کنند. اما ترکل از عمق دلبستگی های بسیاری از ساکنان خانه سالمندان نسبت به عروسک های روباتی شان شگفت زده شد،زیرا آنها اغلب نمی خواستند در پایان دوره قرض عروسک ها را رها کنند. بطور واضح بسیاری از ساکنان، تشنه هرنوع تعامل اجتماعی بودند.
بیشتر مردم عروسک های روباتیک را یک جایگزین خیلی ضعیف برای مصاحبت انسانی می دانند و وابستگی ای را که ساکنان خانه سالمندان به عروسک ها پیدا کردند را علامت شکست جامعه در توجه به نیازهای عاطفی افراد مسن و ناتوان می دانند. ممکن است افردای باشند که از این ایده که روباتهای اجتماعی راه حلی برای تنهایی و نیاز به تعامل در انسانها هستند، متنفر باشند. اما اگر ما هیچ نمونه عینی نداشته باشیم که بتوانیم بگوییم مردم و انجمن ها خواستار آن هستند که زمان یا منابع لازم برای پاسخ به نیازهای افراد مسن و ناتوان به داشتن رابطه با انسان را اداره کنند، آیا روباتهای اجتماعی بهتر از هیچ چیز نیستند؟
1-6-1-4 آیا تکنولوژی ظرفیت پذیرش قوای انسانی را دارد؟
“کان” و “فریدمن”، یک موضوع جدی اخلاقی دیگر را در مورد تمایل به انسانی کردن تکنولوژی مطرح کردند: آسیب ناشی از قرار دادن قوای انسانی در ماشینهایی که این قوا را ندارند. تکنولوژی امروز آن هوش و التفاتی را که مردم از فاعل اخلاقی انسانی تقاضا دارند را ندارد. سپردن این فاعلیت به ماشین ها خطرناک است، و نمایانگر پایان بالقوه مسئولیت پذیری انسانهاست. شرکت هایی که ماشین های هوشمند تولید می کنند باید به کاربران بیاموزند که هوشیار باشند، نه صرفاً نسبت به گریز از مسئولیت، بلکه نسبت به انجام دادن مسئولیتشان در قبال آسیب هایی که در نتیجه فهم نادرست آنها از آنچه ماشین ها انجام می دهند و آنچه نمی توانند انجام دهند به وجود می آیند.
معرفی زیر دریایی های سه شاخه ای که سلاح های هسته ای حمل می کنند در اواخر دهه 1980 یکی از عواملی بود که بطور جدی سرنوشت زمین را در طول حملات نظامی نیروهای ارتشی ایالات متحده و اتحاد جماهیر شوروی، به خطر انداخت. این کشتی ها، مانع سمبلیک 10 دقیقه ای را که بین به کارانداختن اسلحه ها و حملات اسلحه ها وجود داشت، شکستند. وجود این مانع از این جهت ضروری بود که در این فاصله فرماندهان وارد فرآیند تصمیم گیری می شدند تا بتوانند ارزیابی کنند که تصاویری که روی صفحه رادار ظاهر شده اند، علامت هشدار یک حمله اند و یا بی ضررند. وقتی زمان کافی برای وارد کردن انسان ها به فرآیند تصمیم گیری وجود نداشت، سیستم اسلحه ها در اتحاد شوروی مجبور می شد تا به تحلیل کامپیوتری داده متکی باشد و کامپیوترها مقیاس های تلافی جویانه را به کار می انداختند. آینده انسانیت در حال قرار گرفتن در دستان تکنولوژی کامپیوتری شوروی دهه 1980 بود. خوشبختانه حملات ارتش بطور کلی متلاشی شد. اما حتی امروز آنهایی که برای زندگی و مرگ در دستان کامپیوترها اهمیت قائل اند، نتوانسته اند محدودیت های تکنولوژی جاری را درک کنند.
1-6-1-5 آیا تکنولوژی موجب پیدایش احساس حقارت در انسان می شود؟
آیا همانطور که سیستم های هوشمند مصنوعی در همه جا گسترش می یابند، کاربران، محدودیت های این ماشین ها را بهتر می فهمند یا نه؟ برای مثال آیا مردم قسمت هایی را که در آنها هوش انسان در مقایسه با کامپیوترها برتری دارد را بیشتر دوست دارند؟ یا آیا انسانها احساس درجه دوم بودن خواهند داشت؟ مطمئناً ماشین حساب ها و کامپیوترها در اجرای امور ریاضی پیچیده بسیار برتر از انسانها هستند، اما آیا مثلاً قبول ماشین حساب ها واقعاً احترامی که انسانها بخاطر تواناییهای خودشان دریافت می کنند را از بین می برد؟ از این حقیقت که کامپیوترها امور ماشینی و تکراری را بسیار خوب انجام می دهند عموماً بعنوان لطفی به انسانیت تعبیر می شود، آنها فقط یک ذخیره کننده زمان هستند که مردم را آزاد می کند تا توجه خود را صرف امور مهم تر کنند.
اما ممکن است برخی افراد معتقد باشند که اگر کامپیوترها، تأملات اخلاقی، امور خلاقانه یا چالشهای پیچیده را بهتراز انسانها اداره می کنند، ممکن است باعث ایجاد شکلی از ناراحتی یا عقده حقارت پیچیده شوند که احترام شخصی را از بین می برند. کامپیوترهایی که دارای تواناییهای خلاقانه هستند هم ممکن است انگیزه افراد خلاق برای آزمایش نبوغ خود را ضعیف کنند. اما درست نیست که تکنولوژی را بعنوان دزدی ببینیم که انگیزه وروح را می دزدد. حتی بچه هایی که جزء افراد با هوش ورزشکار یا هنرمند نیستند هم می توانند تحریک شوند تا کارهای بزرگ انجام دهند. این هنر والدین و آموزگاران است که بتوانند کاری کنند که هر کودکی بهترین باشد، بدون توجه به اینکه آیا آنها استعدادی در یک قسمت خاص از خود نشان می دهند یا نه. چالش اجتماعی در جهان ماشین های خبره پرورش اهداف انسانی خواهد بود. مطمئناً این چالش می تواند پیش روی ما قرار گیرد. به راستی تکنولوژی های جدید در بسیاری از کودکان، به پرورش استعدادهایی کمک کرده اند که در نسل های گذشته پنهان بودند.
حقیقت آن است که با توسعه تکنولوژی، در واقع به انسانیت بواسطه دنبال کردن پژوهش های علمی خدمت بهتری می شود، نه اینکه کرامت انسانی اش را زایل کند. مردم کاملاً قادرند حقایقی که پژوهشهای علمی روشن می کنند را سامان دهی کنند. بعلاوه ماهیت جسمانی دادن به همه استعدادهای برتر نفسانی در سیستم های مصنوعی، اگر غیر ممکن نباشد، یک چالش سخت است، و سخت بودن این چالش ممکن است واقعاً تأکید روی این مطلب باشد که چرا انسانها چنین مخلوقات قابل توجهی هستند.
1-6-1-6 سربازان، اسباب بازیهای جنسی و بردگان
آیا این درست است که روباتها در زندگی مردم ارزشهایی را که انسان ها آنها را گرامی می دارند را کم رنگ می کنند و انسانیت مردم را تنزل می دهند؟ این سؤال به شکل کنایه آمیزی توسط یکی از موفق ترین روبات شناس ها، “رونالد آرکین”، مدیر مؤسسه جورجیا ،که آزمایشگاه متحرک تکنولوژی روبات است، مطرح شد. روباتها در کاربردهای نظامی، رابطه نامشروع جنسی وکارهای سخت، هر کدام یک وجود خیلی متفاوت خواهند بود که دارای اهداف متفاوتی هستند که منجر به ملاحظات اخلاقی متفاوت می شوند.
آیا انسانیت روباتهای سرباز را می خواهند؟ بله، ما از قبل آنها را به شکل بمب های بالدار با برد زیاد و سرعت بالا، وسایل نقلیه ای که از دور کنترل می شوند و روباتهای مخصوص میدان جنگ که در وظایف پر خطر به حالت آماده باش قرار می گرفتند، داشتیم. داستانی خبری در ماه می سال 2006 ، ” صدها روبات تاکتیکی پک بوت[15] متحرک که درعراق و افغانستان به حالت آماده باش قرار داشتند را توصیف می کند تا درها را در نبردهای شهری بگشایند، کابل فیبر نوری کار بگذارند، بمب ها را خنثی کنند و وظایف پر خطر دیگری را انجام دهند که از قبل توسط انسانها به تنهایی انجام می شد”.[16]
در ایالات متحده، یعنی جایی که تحقیقات روباتیک بطور گسترده ای تحت پوشش مالی وزارت دفاع قرار دارد، طرح هایی وجود دارند تا بیلیون ها دلار صرف توسعه روباتهای ارتشی کنند. طبق گزارشات خبری بیشماری در سال 2004 و 2005، ارتش ایالات متحده از قبل یک روبات پنجه ای قابل کنترل از راه دور را ساخته بود که از [17]SWORDS،اسلحه های خاص روباتی مشاهده سیستم عمل مستقیم از راه دور، استفاده می کرد و مجهز به تفنگهای ماشینی M240 یا M249 بود و در دسامبر 2005، بی بی سی گزارش کرد که این روباتها برای برپایی جنگ علیه شورشیان در عراق مستقر شدند. SWORDS به صورت الکترونیکی به هدف توجه دارد، اگر چه تصمیم واقعی شلیک، تحت کنترل از راه دور انسان متصدی است. در پایان سال 2007، گزارش هایی وجود داشتند مبنی بر اینکه از روباتهای SWORDS به زودی در جنگ استفاده می شود. هنوز هیچ گزارشی از کاربرد واقعی آنها آشکار نشده است. با این وجود، در پایان ژانویه 2008 یک موشک شکارچی قابل کنترل از راه دور توانست طبق گزارشات بیشتر از دو جین از اعضای القاعده را در مقرشان در داخل پاکستان بکشد.
طبق دانش ما، سیستم های کاملاً خودکاری که تفنگ یا بمب حمل می کنند، اجازه شلیک گلوله ندارند. اما اساس چنین سیستم هایی ساده و الزام آور است- روباتها نیاز به انسان را در جنگ کاهش می دهند و بنابراین زندگی سربازان، دریانوردان و خلبانان را نجات می دهند. بعلاوه حتی وسایل نقلیه ای که از راه دور عمل می کنند مثل موشک شکارچی، آنقدر پیچیده هستند که به 4 نفر نیازمندند تا یک عملیات را انجام دهند. کارکردهای کشتیرانی، پرواز، و هدف گیری هر کدام نیازمند پرسنلی هستند که در سطح بالایی آموزش دیده باشند. به طور واضح، آن جناحی که می تواند نیاز به پرسنل خود را بواسطه خودمختار کردن روباتهایش کاهش دهد، سود خواهد کرد. ارتش از قبل در حال آزمایش روباتهای تدارکاتی است که در میدان جنگ بدون متصدی انسانی حرکت می کنند.
ماشین های جنگنده روباتیک به خاطر نامناسب بودن قانون نخست آسیموف علیه صدمه رساندن به انسانها یا کشتن آنها، از کار باز داشته نمی شوند. مسئله واضح است. زمانی که روباتها اختیار کشتن را دارند، تصمیمات آنی لازم هستند تا تعیین کنند که آیا کشتن هر فرد خاص، توجیه شده است یا نه. خود آسیموف، زمانی که قانون صفرم خود را به سه قانون دیگر اضافه کرد، درها را به روی این امکان گشود که یک روبات، انسان را بخاطر حمایت کلی از انسانیت بکشد: “یک روبات ممکن است به انسانیت آسیبی نرساند، و یا اینکه به واسطه منفعل بودن خود، اجازه دهد تا انسانیت آسیب ببیند.”[18] .در زمان نیاز به تکمیل توانایی تصمیم گیری اخلاقی در مورد اینکه استفاده از نیروی کشنده کی، کجا و به سمت چه کسی قابل پذیرش است، هیچ راهی وجود ندارد که بتوانیم احتمال اینکه ماشین های جنگی روباتیک صدمه غیر قابل پذیرشی موجب شوند را کاهش دهیم. بعلاوه روبات ها، فقط جنگنده های دشمن را نمی کشند بلکه مسئول مرگ های غیر نظامی (آسیب موازی) و مرگ سربازان متحد (شلیک دوستانه) هم هستند. حتی اگر خسارات موازی قابل توجیه باشند، درمشاهدات عینی بزرگتر سیستم های خودمختار نیاز دارند تا قدرت سنجش انتخاب ها را بدست بیاورند. در مورد مشکل تضمین کردن امنیت و رفتار اخلاقی، لازم است درباره اینکه چه موقع باید سیستم های حامل اسلحه را مستقر کنیم، به شدت فکر کنیم. پاسخ بعید است که صراحتاً کلمه “هرگز” باشد.
مسئله دیگر آن است که با وجود تمایل طبیعی انسان به شبیه انسان کردن اشیاء، سربازان در قید و بند روبات هایشان هستند. “کالین انجل”[19]، مدیر اجرایی مؤسسه “آی روبوت”[20]، سازنده روبات “پک بوت”[21]، که در پیدا کردن و خنثی سازی ابزارهای منفجره در عراق به کار گرفته می شود، داستان سرباز امریکایی را تعریف می کند که التماس می کرد که شرکت، روباتی به نام “اسکوبی دو”[22] را تعمیر کند، اسمی که یگان او روی آن پک بوت گذاشته بودند، که بعد از به پایان رساندن سی و پنجمین مأموریت موفق خود، از بین رفته بود. انجل تعریف می کند که سرباز به آی روبوت التماس می کرد که لطفاً اسکوبی دو را تعمیر کنید، زیرا او جان من را نجات داد.
یک امر کاملاً متفاوت از ساختن سربازان مصنوعی، ساخت مخلوقات مصنوعی، دوستان و همراهان است- روباتهایی که برای تعامل با انسان طراحی شده اند.
طراحان اسباب بازیهای جنسی، بطور خاص در اختصاص دادن آخرین فن آوری برای تحریک مشتریان خود خوب هستند. رابطه با اسباب بازیهای روباتیک جنسی منجر به رفتار ضد اجتماعی نابجا می شود و تحقیقات آتی هم ممکن است این موضوع را تصدیق کنند.
استفاده از روباتها برای حل مشکل تنهایی، فراتر از استفاده از آنها برای کسب رضایت آنی از عمل جنسی است. محققان در حال کار کردن روی روباتهایی هستند که می توانند حالات عاطفی را از طریق بیانات صورت و دیگر اشارات شفاهی و غیر شفاهی بخوانند تا توهم همدل بودن را خلق کنند. “دیوید لوی” ،[23]درکتاب خود در سال 2007 بنام عشق و عمل جنسی با روباتها (Love and Sex with Robots) می نویسد: ” انقلاب روابط انسان- روبات، استدلال می کند که خط سیر تحقیقی جاری، منجر به رابطه طولانی مدت و حتی ازدواج انسانها و روباتها خواهد شد. اما عمیق کردن قید و بندهای عاطفی، فرصت هایی در اختیار طراحان بی پروا و حتی شاید روباتهای شبه هوشمند آینده قرارمی دهد تا از کاربران ابله بهره برداری کنند. البته موضوعاتی مرتبط با شکلهای رفتار جنسی هم وجود دارند که انجمن های مختلف، روابط انسان- روبات را در آنها از نظر اخلاقی بررسی خواهند کرد.”[24]آیا لازم خواهد بود کارهایی را که روبات همراه و همدم انسان، می تواند و نمی تواند انجام دهد را تنظیم کنیم؟ شاید جامعه باید آمادگی آن را پیدا کند تا نتایج اجتماعی اعمالی که همدمان خبره و روباتیک ما به بار می آورند را بررسی کند.
جذابیت دیگر روباتها چشم انداز داشتن خدمتکاران یا بردگانی است که 7 ساعت از 24 ساعت را کار می کنند و نیازی نیست به آنها مزدی پرداخت شود- سود بردن از داشتن بردگان بدون درگیر شدن با چالش های برده داری. کلمه روبات اولین بار توسط “جوزف و کارل کپک”[25]،در سال 1920 از کلمه چکسلواکی آن روبوتا[26]، جعل شد که به معنای کارگری یا بردگی است. رونالد آرکین می پرسد آیا مشکلات اخلاقی ذاتی برده داری با استفاده از روباتها به عنوان برده، از بین رفته است یا نه. هزاران سال انسانها یکدیگر را در یک بردگی ناخواسته نگه می داشتند، و منسوخ کردن برده داری فقط در طول 150 سال گذشته صورت گرفته است. منسوخ کردن برده داری یک اصل اخلاقی جوان و شاید هنوز ضعیف است، بویژه با وجود تعداد بیشماری از مردم سراسر جهان که هنوز بعنوان شاگرد کارگر به خدمت گرفته می شوند. آرکین این امر را می سنجد که آیا پذیرش روباتهای خدمتکار، بردگی را در جوامعی که بطور رسمی این عمل را منسوخ کرده اند، دوباره برقرارمی کند یا نه، او از خود می پرسد که آیا این امر می تواند بردگی انسان را محو کند یا منجر به تنبلی انسان می شود.
روبات ها به عنوان جانشینان انسان های کارگر، از قبل در روباتیک صنعتی، وجود داشته اند. از نظر انجمن روباتی ژاپن، هدف از ایجاد روباتهای خدماتی مراقبت از افراد مسن و ناتوان در طول چند سال آینده است. روباتها، بدون توجه به حرف کسانی که می گویند روباتهای برده ایده بدی هستند، بعنوان ابزار ساخته خواهند شد. امکان ندارد کسی یک روبات رومبا[27] را با یک انسان اشتباه بگیرد، اما هر چه ظاهر روبات ها اجتماعی تر می شود و ویژگیها و تواناییهای شبه انسانی یا شبیه حیوانات خانگی را کسب می کنند، قابلیت استفاده و فریبندگی آنها هم بیشتر می شود. بعلاوه، با محو شدن تمایز بین انسان ها، سازواره های مجازی و روباتها، موانع برده داری هم یکی یکی محو می شوند.
1-6-1-7 روباتها چه حقوقی بر انسانها دارند؟
در آینده مسائل جدیدی وجود خواهند داشت، از قبیل آن که خود روباتها بالأخره احساسات و عواطف خود را خواهند داشت و هوش آگاهی و درک از خود بدست خواهند آورد. آیا روباتی که احساس درد می کند حق خواهد داشت تا از انسان تقاضا کند که از بدرفتاری با او دست بردارد؟ آیا روباتی با درجه درک خبره آزادانه خواهد توانست بگوید که کار نخواهد کرد؟ یا علی رغم نمونه های عینی، آیا مردم به اصرار روی این موضوع که روباتها، نژادی از شکل زندگی درجه پایین هستند، و احساسات و سطح بالاتری از تواناییهای ذهنی یا آگاهی را ندارند، ادامه خواهند داد. در آینده نزدیک بیشتر امور بوسیله لوازم برقی روباتیک مجزا و تکنولوژی جاسازی شده انجام خواهد شد. میکرو پردازش گرها در یخچالها، قوطی های زباله و پارچه سازی، کارهای انسانها را اصلاح خواهند کرد. روباتهای خانگی ای که بگونه ای طراحی شده اند که هم همدم انسان باشند و هم برده او، در آینده توسط مهندسان ساخته خواهند شد.
[1] -Deeb Blue
[2] -cognizant
[3] -knowledge
[4] – Andy Clack
[5] -natural born cyborgs
[6] -Wendell Wallach and Colin Alen,Moral Machines,teaching right from wrong, ,p:51
[7] – Sherry Turkle
[8] – Wendell Wallach and Colin Alen,Moral Machines,teaching right from wrong,p:52
[9] – Fritz Heider
[10] – Marry-Ann Simmel
[11] -Sony
[12] – Wendell Wallach and Colin Alen ,Moral Machines,teaching right from wrong, p:56
[13] -Kismet
[14] – Masahiro Mari
[15] -packbot
[16] – Wendell Wallach and Colin Alen ,Moral Machines,teaching right from wrong, Oxford University Press 2009,p:60
[17] – Special Weapons Observation Remote Direct-action System
[18] -zeroth law of Asimov
[19] – Colin Angle
[20] -IRobot
[21] -Pack bot
[22] -Scooby Doo
[23] – David Levy
[24] – Wendell Wallach and Colin Alen ,Moral Machines,teaching right from wrong, p:62
[25] – Josef , Karel Capek
[26] -Robota
[27] -Roomba