پیشینه اخلاق ماشین

در حال حاضر دانشگاه های ایالات متحده، بزرگترین مرکز تحقیقتی پیرامون چگونگی وارد کردن قید و بندهای اخلاقی در سیستم های هوشمند هستند تا از بروز فجایع انسانی در آینده جلوگیری کنند. در کشور ما هنوز هیچ کار علمی و پژوهشی ای در این مورد انجام نشده است. یکی از کتاب های کامل در این زمینه از طریق دانشگاه آکسفورد[1] در نیویورک  منتشر شده است. دانشگاه ام آی تی، بزرگترین مرکز علمی- تحقیقاتی در این زمینه است. سایر دانشگاه ها و نشریات در اروپا و کشورهایی نظیر ژاپن و کره جنوبی، کارهای علمی مفیدی در این زمینه انجام داده اند و مقالات متعددی در این زمینه به چاپ رسانده اند.

مسائل و پرسش های اصلی

از جمله پرسش هایی که با پیشرفت تکنولوژی برای ما به وجود خواهد آمد، پرسش از ماهیت انسانی در آینده نه چندان دور خواهد بود. آیا تکنولوژی هوش مصنوعی، به تدریج بر هوش انسان پیشی خواهدگرفت؟ آیا کرامت انسان از بین خواهد رفت؟ آیا انسان ها احساس حقارت و عدم توانایی خواهند داشت؟ آیا بیم آن می رود که موجودات هوشمند مصنوعی، روزی بر ما چیره شوند؟ آیا با اتوماتیک تر شدن تکنولوژی و کمتر شدن نظارت انسان، سلامت و زندگی انسان به خطر خواهد افتاد؟ آیا به راحتی می توان به تکنولوژی اعتماد کرد ؟

  در لابراتوار محاسباتی دانشگاه ام آی تی، دانشمندان در حال طراحی کامپیوترهایی هستند که می توانند عواطف انسان را بخوانند. مؤسسات مالی، از شبکه های کامپیوتری جهانی استفاده می کنند تا در هر دقیقه میلیونها معامله تجاری را ارزیابی کرده و آنها را قبول و یا رد کنند. روبات شناسان در ژاپن، اروپا و ایالات متحده، در حال ساخت روبات های خدماتی هستند که از سالمندان و معلولان مراقبت می کنند. دانشمندان ژاپنی در حال انجام پروژه هایی هستند که تمایز بین انسان و آدم آهنی قابل تشخیص نباشد. دولت کره جنوبی اعلام کرده است که هدفش آن است که تا سال 2020 در هر خانه ای یک روبات وجود داشته باشد. همچنین این دولت با همکاری شرکت سامسونگ، در حال ساخت اسلحه هایی است که روبات دارند و در جنگ های مرزی این کشور با کره شمالی، به ارتش آنها کمک می کنند. در عین حال، با استفاده از کامپیوترها، در هر وسیله قابل مشاهده ای، از اتومبیل ها گرفته تا سطل های زباله، فعالیت های انسان ها تسهیل شده، تحت نظارت قرار گرفته و تحلیل می شود؛ نرم افزارهای روباتی هم در محیط های مجازی قابل مشاهده، از جستجوی صفحات وب گرفته تا خریدهای آنلاین، فعالیت انسان را تسهیل، نظارت و تحلیل می کنند. از اطلاعاتی که بوسیله این روبات ها جمع آوری می شود، در تجارت، کارهای حکومتی، و اهداف پزشکی استفاده می شود. واژه روبات، هم بر روبات های فیزیکی دلالت دارد و هم بر فاعل های نرم افزاری.

  همه این پیشرفت ها روی ساخت روبات هایی متمرکز هستند که از خطای مستقیم انسان مستقل هستند و تأثیر بالقوه آنها روی سعادت انسان، موضوع افسانه های علمی تخیلی است. ایزاک آسیموف، بیش از 50 سال قبل، نیاز به قواعد اخلاقی برای هدایت رفتار روبات ها را پیش بینی کرده بود. سه قانون روباتیک او، اولین چیزی هستند که در تفکر درباره اخلاق ماشین، به ذهن مردم خطور می کند.

1-روبات نباید به انسان صدمه بزند و یا بواسطه تعامل با انسان، باعث شود که انسان آسیب ببیند.

2-روبات باید از دستوراتی که انسانها به او می دند اطاعت کند، مگر زمانی که این دستورات با قانون اول در تعارض باشند.

3-روبات باید از خودش محافظت کند، البته تا زمانی که این محافظت با قانون اول یا دوم متعارض نباشد.

  اما نوشته های آسیموف بیشتر به داستان شبیه بودند. او با چالشی که امروزه مهندسان با آن دست به گریبان هستند، مواجه نشده بود: چالش مطمئن شدن از اینکه سیستم هایی که آنها می سازند، برای انسانیت سودمند هستند و به مردم صدمه نمی زنند. اینکه آیا سه قانون آسیموف به ما کمکی می کنند تا  مطمئن شویم روبات ها به شکل اخلاقی عمل خواهند کرد، یکی از سؤالاتی است که در این پایان نامه مورد بحث قرار می گیرد.

  پیش بینی می شود که در چند سال آینده، وقایع مصیبت باری توسط کامپیوترهایی که مستقل از انسان ها تصمیم گیری می کنند، اتفاق بیفتد. قبلاً در اکتبر 2007، روباتهای نیمه اتوماتیک شرکت کانن[2] که در ارتش آفریقای جنوبی بکار گرفته شده بودند، به خاطر عملکرد نادرستشان 9 سرباز را کشتند و 14 سرباز دیگر را زخمی کردند-گرچه در گزارشات اولیه، درباره اینکه علت حادثه مشکل نرم افزاری بوده یا سخت افزاری، تناقضاتی وجود داشت. همانطور که این ماشین ها اتوماتیک تر می شوند، پتانسیل بروز فاجعه بزرگتر هم بیشتر می شود. حتی اگر این فجایع، به اندازه حادثه تروریستی 11 سپتامبر کشته نداشته باشند، باعث به وجود آمدن واکنش های سیاسی گسترده ای خواهند شد. برخی از جناح های سیاسی خواستار توسعه بیشتر تکنولوژی و برخی دیگر خواستار ممنوعیت کامل آن خواهند بود.(و شاید حتی خواستار جنگ علیه روبات ها می شوند.)

  مسائل امنیتی و فواید اجتماعی، همیشه برای مهندسان بیشترین اهمیت را دارند. اما سیستم های امروزی به سطحی از پیچیدگی می رسند که در آن سطح باید خودشان تصمیمات اخلاقی بگیرند-آنها باید با کدهای اخلاقی، برنامه ریزی شوند. این امر، چرخه فاعل های اخلاقی را از انسانها تا سیستم های هوشمند مصنوعی ای که ما آنها را فاعل های اخلاقی مصنوعی می نامیم([3]AMAها)، گسترده می کند.

  در گذشته، تنها انسان ها در استدلال اخلاقی حضور داشتند، ولی اکنون زمان آن رسیده است که یک بعد اخلاقی به ماشین ها اضافه کنیم. در مقابل موضوعاتی مثل هک کردن، حریم خصوصی، مالکیت معنوی و  سایر موضوعاتی که در رشته اخلاق کامپیوتر بررسی می شوند، رشته اخلاق ماشین، (منظور اخلاق سیستم های هوشمند است)، با موضوع چگونگی رفتار ماشین ها با کاربران انسانی و سایر ماشین ها سر و کار دارد. رشته اخلاق ماشین، رشته اخلاق کامپیوتر را گسترده تر می کند و پرسش اصلی این رشته را از مردم باید با کامپیوترهای خود چه کنند، تبدیل می کند به این پرسش که ماشینها با خود چه کاری انجام می دهند.

  ما در حال بحث پیرامون مباحث تکنیکی هستیم که در وقتی کامپیوترها تبدیل به استدلال کنندگان اخلاقی می شوند، با آن مسائل روبرو خواهیم شد. همانطور که هوش مصنوعی، حوزه فاعل های خودکار را گسترده می کند، چالشی که با آن روبرو می شویم آن است که چگونه این فاعل ها را طراحی کنیم تا آنها به مجموعه ارزش ها و قواعدی که انسان ها از فاعل های انسانی انتظار دارند، احترام بگذارند.

  آیا انسانیت واقعاً از کامپیوترها می خواهد که تصمیمات مهم اخلاقی بگیرند؟ بسیاری از فیلسوفان تکنولوژی این مسئله را هشدار داده اند که در صورت پیشرفت تکنولوژی، ممکن است انسانها مسئولیت اخلاقی خود را نسبت به ماشینها رعایت نکنند. فیلم ها و مجلات، پر از داستان های تخیلی درباره خطرات اشکال پیشرفته هوش مصنوعی هستند. همیشه اصلاح تکنولوژی در هنگام پیدایش آن، آسان تر از زمانی است که کاملاً تأسیس شده باشد. اما، همیشه ممکن نیست که بتوان به طور دقیق تأثیر تکنولوژی های جدید را بر جامعه پیش بینی کرد، مگر زمانی که آن تکنولوژِی به شکل گسترده ای در جامعه به کار برده شود. بنابراین، از نظر برخی منتقدان، انسان هایی که معتقدند باید از تکنولوژیهای خطرناک چشم پوشی کرد و یا ظهورشان را هشدار داد، در اشتباه هستند. اما ما معتقدیم که بازار و نیروهای سیاسی خواستار فوایدی هستند که این تکنولوژی ها به آنها می دهند، و سرانجام هم بر بقیه چیره می شوند. بنابراین لازم است که هر کسی که با این تکنولوژی سر و کار دارد، به طور مستقیم درباره کار اجرای تصمیم گیری اخلاقی در کامپیوترها، روبات ها، و بوت های مجازی[4] در شبکه کامپیوتری، فکر کند.

  ماشینها در حال گسترش هستند. وجود آنها تأثیرات ناخواسته ای روی زندگی و رفاه انسان ها دارد که البته همه این تأثیرات خوب نیستند. ما معتقد هستیم که افزایش اتکا به سیستم های خودکار، انسانیت اساسی انسان ها را از بین نمی برد. از نظر ما، روبات های پیشرفته انسان ها را به بردگی نخواهند گرفت و یا انسانیت را نابود نخواهند کرد. انسان ها همیشه خود را با محصولات تکنولوژیکی خود وفق می دهند و فواید داشتن ماشین های خودکار برای انسان ها،  بیشتر از هزینه های آن خواهد بود.

  اما نمی توان آنقدر هم خوش بین بود. نمی توان فقط نشست و امیدوار بود که همه چیز به بهترین شکل اتفاق بیفتد. اگر انسان ها بخواهند از نتایج بد ظهور فاعل های هوشمند اتوماتیک جلوگیری کند، مردم باید آمادگی این را داشته باشند که بتوانند در مورد کارهایی که لازم است انجام دهند تا این فاعل ها ، خوب باشند، به سختی فکر کنند.

  آیا ما، در مورد ساخت ماشین های تصمیم گیرنده اخلاقی، هنوز در حوزه افسانه های علمی به سرمی بریم؟ و یا شاید اوضاع بدتر از این باشد و ما در شاخه ای از افسانه های علمی غرق باشیم که اغلب مربوط است به هوش مصنوعی؟ اگر ما فقط درباره ظهور AMAها پیشگویی های ناقصی داشته باشیم، این اتهام قابل توجیه است. اما ما درباره آینده چیزی نمی دانیم و  نمی دانیم که آیا موانع آشکاری که سر راه هوش مصنوعی قرار دارد، موانعی واقعی هستند و یا توهمی از مانع هستند. ما نه علاقه داریم که به این فکر کنیم که زمانی که وکیل ما یک روبات خواهد بود، زندگی ما چه شکلی خواهد داشت، و نه حتی دوست داریم پیش بینی کنیم که آیا این اتفاق واقعاً خواهد افتاد یا نه. بلکه ما بیشتر دوست داریم که از تکنولوژی های امروزی قدری فراتر رویم و به سمت تکنولوژی هایی حرکت کنیم که نیازمند ظرفیت تصمیم گیری اخلاقی خواهند بود. شاید همین قدم های کوچک، در نهایت منجر شود به هوش مصنوعی کاملاً پیشرفته. اما حتی اگر نتوانیم سیستم های کاملاً هوشمند بسازیم، باز هم یک موضوع واقعی وجود دارد که مهندسان با آن مواجه می شوند و آن موضوع نباید تنها توسط مهندسان بررسی شود.

  آیا اکنون برای بررسی این موضوع، خیلی زود نیست؟ نه اینطور نیست. روبات های صنعتی که در کارهای مکانیکی بکار برده می شوند، گاهی باعث آسیب انسان و حتی مرگ او می شوند. ردم آنقدر متقاضی روبات های خانگی و خدماتی وجود هستند که این امر باعث شده است تا سال 2010، بازار این نوع روبات ها دو برابر بازار روبات های صنعتی شود، و تا سال 2025، چهار برابر خواهد شد. با ظهور روبات های خانگی و خدماتی، دیگر روبات ها محدود به محیط های صنعتی، یعنی جایی که فقط کارگران آموزش می دیدند که با روبات ها تعامل داشته باشند، نیستند. عروسکهای روباتی کوچک، مثل AIBO از شرکت سونی، طلایه داران وسایل روباتیک بسیار زیادی هستند. میلیون ها روبات جاروبرقی، برای مثال “رومبا”[5] از شرکت آی روبوت [6]، خریداری شده اند. کاربرد های اولیه روباتی در بیمارستان ها و روبات های راهنما در موزه ها از قبل به وجود آمده اند. در اینجا توجه ما به گسترش روبات های خدماتی ای جلب می شود که کارهای اساسی خانه را انجام می دهند و به افراد مسن کمک می کنند. برنامه های کامپیوتری، میلیون ها معامله تجاری را با چنان کفایتی انجام می دهند که انسانها  قادر نیستند آنرا آنگونه انجام دهند. تصمیمات نرم افزاری برای خرید و فروش سهام، کالاها و ارزها، ظرف چند ثانیه گرفته می شود و چنان سودی را در بر دارد که هیچ انسانی نمی تواند در حال حاضر آن را تشخیص دهد و درصد مهمی از فعالیت در بازارهای جهانی را نشان می دهد.

  سیستم های مالی خودکار، عروسک های روباتیک، و جاروبرقی های روباتی هنوز برای تبدیل شدن به ماشین های کاملاً خودکاری که تصمیمات اخلاقی می گیرند و روی رفاه انسان تأثیرگذارند، راه زیادی در پیش دارند. اما، انسان ها از قبل به نقطه ای رسیده اند که در آن سیستم های مهندسی، تصمیماتی می گیرند که می تواند روی زندگی انسان تأثیرگذار باشد و مسائل اخلاقی ایجاد کند. در بدترین موارد، آنها تأثیرات منفی داشته اند.

  آیا ساختن یک AMA ممکن است؟ سیستم های مصنوعی کاملاً آگاه همراه با ظرفیت های اخلاقی کامل انسانی، شاید برای همیشه در حوزه افسانه های علمی باقی بمانند. با این وجود ما معتقدیم که به زودی سیستم های محدودتری ساخته می شوند. چنین سیستم هایی ظرفیت ارزیابی جنبه های اخلاقی اعمال خود را دارند- مثلاً  اینکه تشخیص می دهند که هیچ گزینه ندارند به جز آنکه به خاطر حفظ حق حریم خصوصی، حق مالکیت را نقض کنند.

  طراحی AMAهای اخلاقی، مستلزم مطالعه جدی تئوریهای اخلاقی است، که از نقطه نظرات انسانی نشأت گرفته اند. ارزش ها و نگرانی هایی که در سنت های فلسفی و مذهبی جهان توصیف شده اند، به راحتی قابل بکار بردن در ماشین ها نیستند. وارد کردن سیستم های اخلاقی مبتنی بر قاعده، مثل ده فرمان[7] یا سه قانون روباتیک آسیموف[8]، در کامپیوتر ها آسان تر است، اما همانطورکه بسیاری از داستان های روباتی آسیموف نشان می دهند، حتی  سه قاعده آسان هم می توانند معماهای اخلاقی زیادی را ایجاد کنند. اخلاق ارسطو بیشتر روی شخصیت تأکید داشت تا قاعده: اعمال خوب از شخصیت های خوب سر می زند، و سعادت انسان منوط بود به رشد شخصیت فضیلتمند او. البته برای انسانها، رشد فضایل خودشان هم سخت است، چه برسد به توسعه فضایل مناسب برای کامپیوترها یا روبات ها. مواجه شدن با این چالش مهندسی، مستلزم مطالعه سرمنشأ اخلاق انسان است، همانطور که در تکامل، یادگیری و رشد، عصب شناسی و فلسفه مطالعه شده است.

  اخلاق ماشین، همان اندازه که درباره تصمیم گیری انسانی صحبت می کند، درباره موضوعات فلسفی و عملی ساخت AMAها هم صحبت می کند. همانطور که AI خطوط پرسشی جدیدی را در فلسفه ذهن وارد می کند، اخلاق ماشین ،پتانسیل آن را دارد که خطوط پرسشی جدیدی را در اخلاق مطرح کند.

1-Oxford University Press, Inc.198, Madison Avenue, Newyork,NY, 10016

[2] -cannon

[3] -Artificial Moral Agent

[4] -Virtual bots

[5] -Roomba

[6] -iRobot

[7] -Ten Commandments

[8] -Asimov’s Three Laws for Robots

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *