ما تله روبات ها ،و روبات های خودمختار داریم. هر کدام از این تکنولوژیها با فاعلیت اخلاقی رابطه متفاوتی دارند. تله روبات ها ماشین هایی هستند که از راه دور کنترل می شوند و به صورت اتوماتیک، تنها می توانند تصمیمات کوچکی بگیرند. احتمالاً، این موفق ترین شاخه روباتیک در این زمان است، زیرا آنها برای حرکت نیازمند هوش مصنوعی پیچیده نیستند و اپراتور آنها، برای ماشین هوش را فراهم می کند. مارس روور های[1] ناسا به این صورت کنترل می شوند، آنها روبات های جستجوگر در اعماق دریا هستند. عمل جراحی تله روباتیک به زودی تبدیل به یک واقعیت خواهد شد، همانطور که پرستارهای تله روباتیک هم تبدیل به یک واقعیت می شوند. این ماشین ها به طور واضح در موقعیت هایی که بار اخلاقی دارند به کار گرفته می شوند و مدل ارتباط بین آنها به این صورت است:
کاربر روبات قربانی
تحلیل اخلاقی تله روباتها شبیه تحلیل سیستم هایی است که در آنها ستایش و سرزنش به طراحان، برنامه ریزان و کاربران آنها تعلق می گیرد. از آنجایی که انسان ها در تمام تصمیمات مهمی که این ماشین ها می گیرند حضور دارند، استدلال اخلاقی را هم آنها برای ماشین ها فراهم می کنند.
2-2-1-2- روبات های خودمختار[2]
اما در آینده نه چندان دور شاهد ظهور روبات های خودمختار خواهیم بود که قدرت خلق استدلال اخلاقی خواهند داشت و همانطور که تکنولوژی سگ های راهنما شایسته ستایش و سرزنش هستند، این روبات ها هم دارای حقوق اخلاقی و کمی مسئولیت اخلاقی خواهند بود. مؤلفه اصلی در ساخت و طراحی این روبات های خودمختار آن است که آنها داری استقلال هستند و بدون نیاز به برنامه ریز و یا کاربر تصمیمات اخلاقی می گیرند. البته بحث پیرامون معنای استقلال، یک بحث فلسفی است و استقلال از آن واژه های اسرارآمیز در فلسفه است و در اینجا ما از معنای مهندسی آن استفاده می کنیم و منظورمان از استقلال روبات یعنی آنکه روبات ها قادر هستند تا حداقل برخی از تصمیمات مهم درباره اعمالشان را با استفاده از برنامه ریزی خودشان بگیرند. این معنا از استقلال ممکن است در بعضی جاها ساده باشد، مثل زمانی که جاروبرقی های روباتی برای ارزیابی چگونگی هدایت خود هنگام تمیز کردن زمین، تصمیماتی را می گیرد. اما از طرفی ممکن است آنقدر ها هم ساده نباشد و نیازمند استدلال اخلاقی و معنوی پیچیده باشد، مثل زمانی که پرستارهای روباتی باید تصمیم بگیرند که چگونه با بیمار تعامل کنند که علایق ماشین و بیمار، هر دو به بهترین شکل ارضا شود.
برنامه نویسان این ماشین ها مسئول هستند، اما نه کاملاً. همانگونه که والدین یک فرد تا حدی فاکتور هستند اما تنها علت تصمیم گیری فرد نیستند. این به آن معناست که برنامه نویسان یک ماشین نباید به عنوان تنها محل فاعلیت اخلاقی در آن در نظر گرفته شوند. این موضوع خود ماشین را به عنوان محلی برای فاعلیت اخلاقی مطرح می کند. فاعلیت اخلاقی در گستره ای از روابط ایجاد می شود، از جمله در رابطه بین ماشین ها با فاعل های دیگر مثل برنامه نویسان، سازندگان و بازاریاب های ماشین ها، و همچنین در رابطه بین ماشین ها با فاعل های روباتیک و نرم افزاری دیگر و کاربران این ماشین ها. در اینجا منظور آن نیست که در یک چنین جامعه تعاملی ای، روباتها تنها محل فاعلیت اخلاقی هستند، بلکه منظورآن است که در مواقع ای آنها می توانند به عنوان پیرو فاعل های اخلاقی در آن جامعه در نظر گرفته شوند.
[1]-Mars Rovers –
[2] – Autonomous Robots