برای روشن کردن این موضوع لازم است چگونگی تعامل متخصصان اخلاق با اخلاق استفاده از تکنولوژی و طراحی آن را بررسی کنیم. رایج ترین طرح تکنولوژیکی، مدل استاندارد “کاربر-ابزار-قربانی”[1] است. در اینجا تکنولوژی، در موقعیت اخلاقی بین کاربری که از تکنولوژی استفاده می کند و قربانی، دخالت می کند. در اینجا، وقتی فرد از وسیله و یا سیستم فنی ای استفاده می کند که موجب آسیب می شود، ما صرفاً کاربر را سرزنش می کنیم و نه وسیله را. حال اگر یک روبات یا یک سیستم هوشمند صرفاً یک وسیله باشد، در این صورت اخلاق موقعیت تنها شامل کاربران و یا طراحان روبات می شود. اگر ما این استدلال را دنبال کنیم، دیگر یک روبات، فاعل اخلاقی نیست، و در بهترین حالت آن روبات فقط وسیله ای است که علایق اخلاقی دیگران را ارتقاء می دهد.
اما این مفهوم از تأثیر تکنولوژی روی استدلال اخلاقی ما، بسیار ناقص است. ما از سالها قبل با تکنولوژی ای روبرو بودیم که بیشتر شبیه چیزی است که روباتهای امروزی در تلاش برای خلق آن هستند، یعنی تکنولوژی استفاده از حیوانات اهلی. هزاران سال است که انسانها، سگ ها را برای استفاده های خود پرورش می دهند. اگر ما تکنولوژی را به عنوان دستکاری طبیعت در نظر بگیریم، به راحتی می توانیم سگ های اهلی را یک تکنولوژی بنامیم. این تکنولوژی به صورت طبیعی باهوش است و احتمالاً از نوعی آگاهی هم برخوردار است. به علاوه سگ ها می توانند آموزش هم ببینند تا دستورات ما را انجام دهند و در این حالت، سگ ها بیشتر شبیه روبات هایی هستند که ما در حال تلاش برای خلقشان هستیم. در این برهان بهتر است نگاهی بیندازیم به نمونه سگ های راهنما، که برای کمک به افراد نابینا پرورش داده می شوند. این تکنولوژی (تکنولوژی سگ های راهنما)، به راحتی با مدل استاندارد ما مطابقت نمی کند. ما در اینجا رابطه پیچیده ای بین مربی، سگ راهنما و فرد نابینایی که سگ برای کمک به او آموزش دیده است داریم. در این رابطه چه کسی شایسته ستایش است؟ به نظر می رسد که هم مربی و هم سگ شایسته آن باشند. ما مهارت و فداکاری مربیان را می ستاییم، و به همین ترتیب اعمال سگ هم قابل ستایش هستند. در اینجا یک وابستگی عاطفی مهم بین تمام فاعل ها شکل گرفته است، اما وابستگی دو فاعل انسانی نسبت به سگ قوی تر است و ما تمایل داریم روابط ایجاد شده توسط این حیوان را با همان عباراتی توصیف کنیم که روابط انسانی را با آنها توصیف می کنیم.
وب سایت “سگ های راهنما” برای افراد نابینا از طرف انجمن دامپزشکی امریکا، رابطه انسان و حیوان را اینگونه توصیف می کند:
” ارتباط انسان – حیوان، به طور متقابل رابطه ای سودمند و پویا بین مردم و حیوانات دیگراست که تحت تأثیر رفتارهایی است که برای سلامتی و سعادت هر دو ضروری هستند، این شامل تعاملات عاطفی، روان شناسانه و فیزیکی مردم، حیوانات و محیط می شود، اما فقط به آن محدود نمی شود.”[2]
قطعاً تربیت سگ های راهنما برای کمک به افراد کم بینا قابل ستایش است، اما آیا خود سگ ها هم از نظر اخلاقی شایان ستایش هستند؟ البته همینطور است. برای باور این موضوع دو راه معقول وجود دارد: یک راه آن است که باور داشته باشیم که اشیائی که کارکرد خود را به خوبی انجام می دهند از ارزش اخلاقی مساوی با ارزش اخلاقی اعمالی که انجام می دهند، برخوردارند. راه دوم آن است که استدلال کنیم حیوانات خواسته های شخصی، آرزوها، و تمایلات خود را دارند و این استقلال اگرچه به اندازه استقلال انسان ها نیست، اما با این وجود آنقدر پیشرفت کرده است که به سگ ها این قدرت را بدهد که مدعی حقوق اخلاقی و احتمالاً کمی مسئولیت اخلاقی هم باشند. اکنون سؤال این است که آیا روبات به درستی یک وسیله در نظر گرفته شده است و یا نه، چیزی بیشتر از یک وسیله است، مثل تکنولوژی ای که درمورد سگ های راهنما توضیح داده شد.
البته پاسخ این سؤال آسان نیست. هیچ روباتی در جهان واقعی یا در آینده نزدیک به اندازه یک سگ راهنما باهوش و حساس نخواهد بود. اما حتی در کمترین توانایی هایی که روباتهای امروزی دارند، وجه اشتراکاتی با توانایی های سگ های راهنما وجود دارد، نه با توانایی های یک چکش.
در تکنولوژی روباتیک، مدل اخلاقی استاندارد بین فاعل ها اینگونه است:
برنامه ریز روبات کاربر
در اینجا تمایز بین طبیعت کاربر و طبیعت وسیله کاملاً می تواند محو شود تا آنجا که آنطور که فیلسوف تکنولوژی “کال میچمن”[3]، استدلال می کند، ” هستی شناسی مصنوعات در نهایت قادر نخواهد بود تا از فلسفه طبیعت جدا شود.”[4]و ما در نهایت مجبور خواهیم بود تا درباره تکنولوژی به همان شکلی فکر کنیم که درباره طبیعت فکر می کنیم.
برای روشن شدن روابط اخلاقی بین فاعل های طبیعی و مصنوعی اولین قدم آن است که بین شاخه های مختلف تکنولوژی تمایز قائل شویم. مطلب مهم آن است که دو نوع تکنولوژی روباتیک وجود دارد که باید از هم جدا شوند تا نسبت دادن فاعلیت اخلاقی به روبات ها معنا پیدا کند.
[1] – John P.Sulins,” When a Robot is a Moral Agent?”,International Review of Information Ethics,Vol6,12/2006,p:3
[2] -www.guidedogs.com/aboutmission.
html#Bond
[3] – Cal Mitcham
[4] – John P.Sulins,” When a Robot is a Moral Agent?”,International Review of Information Ethics,Vol6,12/2006,p:5