جنبه دیگر مسائل اخلاقی ای که هوش مصنوعی و استفاده از تکنولوژی مطرح می کنند، مسائلی هستند که با بکارگیری آنها در زندگی روزمره برای انسان ایجاد می شود. مثلا استفاده از سیستم های هوشمند و خبره، مستلزم بروز مشکلاتی در بخش هایی از زندگی اجتماعی انسان است که این سیستم ها در آن بخش ها بکار گرفته می شوند. انواع دیگر هوش مصنوعی، از جمله تکنولوژی بینایی کامپیوتری، پردازش زبان طبیعی، بازیها و …هر کدام به نوبه خود مسائل اخلاقی ای را مطرح می کنند. رشته اخلاق کامپیوتر هم مسائل اخلاقی خاص استفاده از کامپیوترها را بررسی می کند. مسائلی از قبیل حفظ حريم خصوصي، مالكيت، و حقوق شهروندي در عصر ديجيتال، تسهيل كردن تجارت كامپيوتر مبنا، جلوگيري از هك كردن، كرم ها و ويروس ها، و سوء استفاده هاي ديگر از تكنولوژي. تكنولوژي هاي جديد زمينه جنايت ديجيتالي را فراهم كرده اند، دسترسي افراد كوچك را به عكس هاي محرك آسان كرده اند، و وقت مردم را با تبليغات و ايميل هاي ناخواسته دزديده اند.
1-6-2-1 اخلاق کامپیوتر[1]
علاوه بر مسائل مربوط به اخلاق در هوش مصنوعی، یکی از حوزه هایی که در این تحقیق مورد بررسی قرار می گیرد، حوزه اخلاق کامپیوتر است. اخلاق کامپیوتر به بررسی مسائل اخلاقی و مشکلاتی می پردازد که صرفاً کامپیوترها و شبکه های کامپیوتری مسبب آن هستند. همچنین حوزه اخلاق کامپیوتر به بررسی مسائلی می پردازد که در آنها متخصصان اخلاق از کدهای اخلاقی و استانداردهایی استفاده می کنند تا عملکرد خوبی داشته باشند. از اسامی دیگری چون ” اخلاق سایبری”[2] یا ” اخلاق اینترنتی”[3] استفاده می کنند تا جنبه های خاصی از اخلاق کامپیوتر را بررسی کنند.
دردهه 1990، “مور”، مفهوم “ارزشهای هسته ای”[4] را وارد حوزه اخلاق کامپیوتر می کند. طبق نظر مور، برخی ارزشهای انسانی – مثل زندگی، سلامتی، شادی، امنیت، رفاه، اقبال و دانش – آنقدر اهمیت دارند که بقای جامعه به آنها بستگی دارد. به راستی اگر یک جامعه به ” ارزشهای هسته ای” اهمیت ندهد، خیلی زود از بین می رود. مور از واژه ” ارزشهای هسته ای” برای موضوعات اخلاق کامپیوتر، مثل حریم خصوصی و امنیت استفاده می کند[5].
از جمله حوزه هایی که مسائل مربوط به اخلاق کامپیوتر در ان مطرح می شوند عبارتند از:
1-6-2-1-1 کامپیوتر در محیط کاری[6]:
کامپیوترها به عنوان یک “ابزار جهانی”[7] که در واقع می توانند هر کاری را انجام دهند، تهدیدی برای مشاغل به حساب می آیند. گرچه آنها گاه گاهی نیاز به تعمیر دارند، اما لازم نیست بخوابند، خسته نمی شوند، به خانه نمی روند، مریض نمی شوند، و یا برای استراحت مرخصی نمی گیرند. کامپیوترها در انجام امور از انسانها کارآمدتر هستند. بنابراین انگیزه های اقتصادی زیادی وجود دارد که کامپیوترها را جایگزین انسانها کنیم. در واقع در جهان صنعتی، از قبل کامپیوترها در بسیاری از مشاغل از جمله صندوقداری بانک، کارگری، اپراتورتلفن، تایپیست، و غیره، جانشین انسانها شده اند. برخی استدلال می کنند که انسان های زیادی وجود دارند که در فقر زندگی می کنند و شغل ندارند و به همین علت نباید کارگران مکانیکی را جایگزین آنها کنیم. اما دورنمای استخدام افراد خیلی هم بد نیست. صنعت، مشاغل جدید و متنوعی را خلق کرده است، مثل مهندس نرم افزار و سخت افزار، تحلیل گر سیستم، طراح شبکه، کارمند فروش کامپیوتر و غیره. بنابراین در کوتاه مدت به نظر می رسد که کامپیوتر باعث بیکاری می شود، اما در بلند مدت می بینیم که تکنولوژی ،بیشتر از تعداد مشاغلی که خذف کرده، شغل جدید خلق کرده است.
موضوع اخلاقی دیگر درباره محیط کاری، مربوط به سلامتی و امنیت است. همانطور که “فورستر و موریسون” [8] متذکر شده اند، “زمانی که تکنولوژی اطلاعات به محیط های کاری معرفی می شود، باید به تأثیرات احتمالی آن روی سلامتی و رضایت شغلی کارگرانی که از آن استفاده می کنند، توجه کنیم. مثلاً امکان دارد کارگرانی که می خواهند از ابزارهای کامپیوتری با سرعت بالا استفاده کنند، احساس استرس داشته باشند، یا سلامتی آنها توسط اشعه هایی که از مانیتورها ساطع می شود ، در معرض خطر قرار گیرد.”[9]
1-6-2-1-2 جنایت کامپیوتری[10]:
در عصر “ویروس “های کامپیوتری و جاسوس های بین المللی که هزاران مایل دورتر از ما هستند، روشن است که امنیت کامپیوتر موضوع مهمی در اخلاق کامپیوتر است. مسئله، امنیت فیزیکی یک سخت افزار نیست، ( یعنی حفظ سخت افزار در نقابل دزدی، آتش سوزی، سیل و غیره)، بلکه امنیت منطقی، مسئله اصلی است که “اسپافورد، هیفی و فربراچه”[11] آن را به 5 بخش تقسیم کردند:[12]
- حریم خصوصی و رازداری
- درستی و تمامیت – مطمئن شدن از اینکه اطلاعات و برنامه ها بدون یک حجیت درست، تغییر نمی کند.
- خدماتی که آسیب نمی رسانند.
- سازگاری- مطمئن شدن از اینکه اطلاعات ورفتاری که ما انروز می بینیم، فردا هم به همین شکل خواهدبود.
- کنترل دسترسی به منابع
تهدیدهای برنامه ریزی شده و یا نرم افزارهای بد انیش، چالش مهمی را در امنیت کامپیوتر مطرح می کنند. این چالش ها، ویروس ها را هم در بر می گیرند که خودشان به تنهایی نمی توانند فعالیت کنند، بلکه در برنامه های کامپیوتری دیگر وارد شده اند؛ “کرم هایی” که می توانند از طریق نت ورک ها (network)، از ماشینی به ماشین دیگر بروند، “اسب های تروجان” که به نظر می رسد نوعی برنامه باشند، اما واقعاً در پشت صحنه، در حال آسیب رساندن می باشند، “بمب های منطقی” که به دنبال شرایط خاصی هستند و سپس وقتی آن شرایط فراهم شد، فعالیت خود را شروع می کنند، و “باکتری هایی” یا “خرگوشهایی” که به سرعت تکثیر می شوند وحافظه کامپیوتری را پر می کنند.
جنایات کامپیوتری مثل دزدی یا کاشت بمب های منطقی، معمولاً توسط افرادی که مورد اعتماد هستند و اجازه استفاده از سیستم کامپیوتری را دارند، انجام می شود.بنابراین، مسئله امنیت کامپیوتر، باید کاربران مورد اعتماد کامپیوتر را هم در بر گیرد.
خطر بزرگ دیگر برای امنیت کامپیوتر، “هکرهایی” هستند که بدون اجازه وارد سیستم کامپیوتری شخصی می شوند. بعضی از هکرها عمداً داده های فرد را می دزدند و یا مرتکب خرابکاری می شوند، در حالیکه دیگر هکرها صرفاً سیستم را جستجو می کنند تا ببینند که سیستم چگونه کار می کند و چه فایل هایی در آن وجود دارد. این “جستجوگرها” اغلب ادعا می کنند که مدافعان خیرخواه آزادی هستند، مسبب هیچ آسیبی نیستند و برای جامعه مفیدند. اما عمل هک کردن آنها مضر است، زیرا هر کدام از کاوش های ناشناس موفق در یک سیستم کامپیوتری مستلزم آن است که صاحب کامپیوتر مجبور شود سیستم خود را چک کند تا ببیند که برنامه یا اطلاعاتی را از دست نداده باشد و یا آسیبی به برنامه هایش وارد نشده باشد. حتی اگر هکرها هیچ آسیبی به کامپیوتر وارد نکنند، صاحب کامپیوتر باید یک جستجوی وقت گیر و پرهزینه را انجام دهد تا سیستم را به حالت بهینه بازگرداند.
1-6-2-1-3حریم خصوصی و گمنامی[13]
یکی از موضوعات اخلاق کامپیوتر، موضوع حریم خصوصی است. برای مثال در اواسط دهه 1960، دولت امریکا یک پایگاه اطلاعاتی را به وجود آورده بود که حاوی اطلاعات شخصی شهروندان بود، (اطلاعات مربوط به سرشماری، مالیات، نظام وظیفه، وضعیت رفاهی و غیره). در کنگره ایالات متحده، فرم هایی تهیه شد تا به هر شهروند یک شماره شناسایی اختصاص داده شود و به این ترتیب، تمام اطلاعات مربوط به هر شهروند را تحت آن شماره شناسایی جمع آوری کنند. اما اعتراضات عمومی باعث شد که کنگره این برنامه را لغو کند و همین امر باعث شد که رئیس جمهور ایالات متحده کمیسیون هایی را برای تصویب قانون حریم خصوصی، تشکیل دهد. در اوایل دهه 1970، قوانین اصلی مربوط به حریم خصوصی در امریکا تصویب شد. از آن به بعد کامپیوترهایی که در معرض خطر از بین رفتن حریم خصوصی قرار دارند، نگرانی جامعه را به خود جلب می کنند.[14]
مسائل گوناگونی که تکنولوژی ها پیرامون مسئله حریم خصوصی ایجاد می کنند باعث شده است که فیلسوفان و سایر متفکران، مفهوم حریم خصوصی را دوباره ارزیابی کنند. از اواسط دهه 1960، تعدادی از دانش پژوهان، تئوری حریم خصوصی را اینگونه تعریف کرده اند: ” کنترل روی اطلاعات شخصی”[15]، از طرف دیگر فیلسوفانی مثل مور و تاوانی استدلال کرده اند که کنترل اطلاعات شخصی برای حفاظت از حریم خصوصی کافی نیست. آنها معتقدند که ” حریم خصوصی، خودش، بر حسب دسترسی محدود داشتن، و نه بر حسب کنترل داشتن، به بهترین شکل تعریف شده است.”[16]
گاهی در متن موضوع حریم خصوصی و اینترنت، پرسش هایی درباره گمنامی در اینترنت مطرح می شوند، زیرا گمنامی می تواند مثل حریم خصوصی، فواید زیادی داشته باشد. مثلاً اگر کسی از اینترنت استفاده می کند تا از مشاواران پزشک یا روانپزشک استفاده کند، یا درمورد موضوعاتی حساس بحث کند (مثل ایدز، سقط جنین، حقوق هم جنس بازان، بیماری های مقاربتی، اختلافات سیاسی)، گمنامی می تواند از او محافظت کند. به همین شکل، هم گمنامی و هم حریم خصوصی در اینترنت، می توانند در حفظ ارزش های انسانی مثل امنیت، سلامت روانی، درک از خود، و آرامش ذهن مفید باشند. متأسفانه از حریم خصوصی و گمنامی، می توان برای تسهیل فعالیت های ناخوشایند در فضای مجازی، مثل پولشویی، تجارت مواد مخدر، تروریسم، یا شکارافراد آسیب پذیر، استفاده کرد. [17]
يك موضوع مهم كه در اخلاق ماشين و اخلاق كامپيوتر مشترك است، مربوط است به روبات هاي استخراج كننده كه در وب پرسه مي زنند و بدون توجه به استانداردهاي حريم خصوصي اطلاعاتي را جستجو مي كنند. آنها به راحتی می توانند اطلاعات کامپیوترها را کپی کنند و به این ترتیب حریم خصوصی و حقوق مالکیت فکری را زیر پا بگذارند. مثلاً پروژه Internet Archive (آرشيو اينترنتي) عكس هايی را از سال 1966 از اينترنت ذخيره كرده است و از طريق ماشين “وی بک”[18] خود آنها را در دسترس همه قرار داده است. در حاليكه مكانيسمي وجود دارد که بتوان آنها را از اینترنت پاک کرد، موارد زيادي وجود داشته اند كه قربانيان يا مقصران جنايات اثري را روي ماشين وی بک جا گذاشته اند، اگرچه سايت اصلي آنها پاك شده است. اكنون، روباتهاي جمع آوري كننده داده كه توسط آرشيو اينترنتي مورد استفاده قرار مي گيرند صلاحيت تعيين اهميت اخلاقي موادي كه جمع آوري كرده اند را ندارند.
1-6-2-1-4 مالکیت فکری[19]
یکی از بحث برانگیزترین موضوعات اخلاق کامپیوتر در مورد حقوق مالکیت فکری است که مربوط است به مالکیت نرم افزاری. برخی افراد مثل “ریچارد استالمن”[20]، کسی که “پایگاه نرم افزاری آزاد”[21] را پایه گذاری کرد، معتقدند که مالکیت نرم افزاری نباید مجاز باشد. او ادعا می کند که همه اطلاعات باید آزادانه در اختیار همه قرار گیرد و همه برنامه ها باید قابلیت کپی کردن، مطالعه، و اصلاح و تغییر توسط همه را داشته باشند.[22] دیگران استدلال می کنندکه “کمپانی های نرم افزاری یا برنامه نویسان، هفته ها و ماه ها کار نمی کنند و سرمایه های هنگفتی را خرج نمی کنند، اگر نتوانند آن سرمایه را به شکل دستمزد و یا پول حاصل از فروش، به خود برگردانند.”[23] صنعت نرم افزار، امروز یک بخش چند بیلیون دلاری از اقتصاد را تشکیل می دهد، و کمپانی های نرم افزاری ادعا می کنند که هر ساله به خاطر کپی های غیر قانونی، چندین بیلیون دلار از دست می دهند. بسیاری از مردم معتقدند که “نرم افزار باید دارای مالک باشد، اما “کپی کردن اتفاقی”[24] از برنامه هایی که دارای مالک شخصی هستند، باید مجاز باشد.”[25] صنعت نرم افزاری مدعی است که بیلیون ها دلار از فروش خود را به خاطر کپی کردن ها از دست داده است. ماکیت، یک موضوع پیچیده است، زیرا جنبه های متفاوتی از نرم افزار وجود دارند که می توانند مالک داشته باشند. سه نوع متفاوت از مالکیت وجود دارد: کپی رایت، اسرار تجاری، امتیاز انحصاری.
1-6-2-1-5 مسئولیت حرفه ای[26]
متخصصان کامپیوتر جایگاه خاصی در جامعه دارند. به همین علت، آنها می توانند تآثیر مهمی روی جهان داشته باشند، از جمله روی بسیاری از چیزهایی که برای مردم ارزشمند هستند. از این رو آنها وظیفه دارند تا قدرت مسئولیت پذیری را هم امتحان کنند. متخصصان کامپیوتر با سایر مردم، روابط حرفه ای گوناگونی دارند. این روابط مسائل گوناگونی را به وجود می آورند و گاهی اوقات این مسائل با یکدیگر متناقض می شوند. بنابراین یک متخصص کامپیوتر مسئول، سعی می کند تا از این تناقضات دوری کند.
1-6-2-2 کاربردهای سیستم های خبره و مسائل اخلاقی مربوط به آنها
از سیستم های خبره در بخش های زیادی از زندگی انسان، از جمله در تکنولوژی جنگی و ارتش و یا در بیمارستانها و یا برای آموزش استفاده می شود و هر کدام از این کاربردها، مستلزم بروز انواعی از مسائل اخلاقی است. مثلاً در مورد شبکه های برق، مديران شبكه هاي برقي بايد بين تقاضاهايي كه براي نيرو از طرف صنعت و عامه مردم مطرح مي شود، تعادلي برقرار كنند تا در موارد ضروری بتوانند از هر دو طرف حفاظت کنند. در طول افزايش ولتاژها و طول موج ها، آنها تصميم مي گيرند كه برق چه كسي قطع شود. حال این تصمیم گيرندگان، چه انسان باشند چه نرم افزار، هنگام تصمیم گیری با ارشهایی مواجه هستند؛ از جمله ارزش حمايت از تجهيزات در مقابل آسيب ناشی از قطع برق و کم کردن صدمات وارد شده به مصرف کنندگان. اگر تجهيزات آسيب ببينند، همانطور كه زمان ترميم خدمات بیشتر می شود، آسيب ها هم زياد مي شوند. اين تصميمات گزاره هاي ارزشي را در بر دارند. همانطور كه سيستم ها به طور فزاينده اي خودمختارتر مي شوند، آن گزاره ها ديگر در اختيار كاربران انساني نيستند. سيستم هايي كه در شرایط نامطمئن نمی توانند در تصمیمات خود ارزشها را اعمال کنند، عامل بروز فاجعه هستند.
1-6-2-2-1 سیستمهای خبره جنگی
یک نمونه از این سیستم ها، وسايل نقليه اي كه از دور به كار انداخته مي شوند[27] یا همان (ROV ) ها، از قبل در ارتش گسترش يافته اند. در اكتبر 2007، مؤسسه قانوني “فاستر- میلر” [28]براي آرايش نيروهاي نظامي سه ماشين نظامي قابل كنترل از راه دور را كه اسلحه حمل مي كردند، به عراق فرستاد كه از اسلحه هاي خاص روباتي مشاهده سيستم عمل مستقيم از راه دور[29] ( SWORDS ) استفاده مي كردند.
يك شركت ديگر، شركت آی روبوت[30]، كه بسته هاي روباتي اش به طور گسترده اي در عراق قرار گرفته اند هم جنگاور X700 را معرفي كرده است، يك روبات نظامي كه مي تواند اسلحه حمل كند و از نيمه دوم سال 2008 در دسترس بوده است. اما ابزارهاي روباتي در حد ROV ها متوقف نخواهد ماند. سيستم هاي روباتي نیمه اتوماتیک، موشك هاي گشت زن، توانایی حمل بمب را دارند. همچنين ارتش از روباتهاي نیمه اتوماتیکی استفاده مي كند كه براي در اختيار گذاشتن بمب و نظارت طراحي شده اند.كنگره ايالات متحده در سال 2000 سفارش داد كه يك سوم از وسايل نقليه زميني ارتش و هواپيماهاي دوربرد، با وسايل نقليه روباتيك تعويض شوند. طبق گزارش روزنامه نیویورک تایمز[31] در سال 2005، هدف پنتاگون جايگزيني سربازها با روباتهاي خودمختار است.
برخي از مردم فكر مي كنند كه انسان ها بايد ساخت روبات ها را، اگر آنها فقط براي جنگاوري استفاده مي شوند، به كلي متوقف كنند. اين احساس،هم می تواند شايسته باشد، و هم ممكن است با اين اصل مواجه شود كه چنين سيستم هايي جان سربازان و پرسنل اجرايي قانون را نجات خواهند داد. ما نمي دانيم چه كسي برنده اين جدال سياسي خواهد بود، اما مي دانيم كه اگر طرفداران ماشين هاي رزمي برنده جدال شوند، اكنون زمان آن خواهد بود كه درباره محدوديت هاي اخلاقي موجود در آن فكر كنيم. “رولند آرکین”[32] ، روبات شناس در مؤسسه تكنولوژي جورجیا [33]،در سال 2007 سرمايه هايي را از ارتش ايالت متحده برای به توسعه نرم افزاري و سخت افزاري، دریافت کرد تا ماشين هاي روباتيك جنگنده را قادر سازد از استانداردهاي اخلاقي جنگاوري پيروي كنند. اين خطوط هدايتي نسبتاَ گسترده، براي مردم متمدن قابل احترام هستند، و از حقوق افراد غير نظامي تا حقوق سربازان دشمن كه در تلاش براي تسليم هستند ، را در بر می گیرند. اما اطمينان حاصل كردن از اينكه روباتها از استانداردهاي اخلاقي جنگاوري پيروي مي كنند یا نه، يك موضوع نامشخص است.
در هر صورت احتمال بروز فاجعه انساني با استفاده از روبات ها، آشكار است. همانطور كه سيستم هاي روباتيك در هر سطح كوچكي از جامعه، از امور مالي گرفته تا روابط امنيت عمومي،همه گیر می شوند، پتانسيل واقعي صدمه وارد كردن هم بیشتر مي شود.
1-6-2-2-2 سیستم های خبره در بیمارستان
به احتمال زیاد رویکردهای ابتدایی به اخلاق ماشین، به شکل نرم افزار های پشتیبان در خدمت تصمیم گیرندگان قرار خواهند گرفت. اما این خطر وجود دارد که این ابزارهای پشتیبان، از کاربرانی حمایت کنند که خروجی ماشینها را جایگزین تفکر انتقادی خود می کنند.دو دانشمند اجتماعی به نام های پیتر کان[34]و باتری فریدمن[35] این نگرانی را درمورد ابزارهای پشتیبان تصمیم گیری[36] (DsTs) مطرح کرده اند.
کان و فریدمن معتقدند که کارکرد DsTs ها بگونه ای است که باعث می شود انسانها از زیر بار مسئولیت اخلاقی را شانه خالی کنند و این احتمال وجود دارد که DSTها در نهایت بتوانند فرآیند تصمیم گیری را کنترل کنند.
اما چرا این یک چیز بد خواهد بود؟ دیدگاه کان و فریدمن این است که آنها فکر می کنند که محاسبه مسئولانه نیازمند یک فاعل کاملاً آگاه است که نسبت به هر تصمیمی مسئول باشد.این امر در مورد برخی زمینه های مهم – مثل تصمیم گیری درباره زندگی و مرگ در بیمارستانها –لازم است.
کان و فریدمن از بکارگیری یک DsT در بخش مراقبت های ویژه (ICU) یک بیمارستان استفاده می کنند تا امور مربوط به آنها را تشریح کنند. آنها روی APACHE، یک مدل پشتیبان تصمیم گیری مبتنی بر کامپیوتر که تعیین فرآیندهای معالجه را برای بیمارانی که در ICU هستند تسهیل می کند، متمرکز می شوند. سپس نتیجه را اینگونه بیان می کنند:
“ممکن است برای کارکنان انتقادی بخش مراقبت های ویژه این موضوع یک نوع تمرین باشد که طبق توصیه های APACHE ها تا حدی اتوماتیک عمل کنند، و بطور فزاینده ای حتی برای یک پزشک با تجربه مشکل است که با خود مختاری توصیه های APACHE چالش داشته باشند ….اما در این حالت- سیستم مشورتی باز……. در واقع تبدیل به یک سیستم بسته شده است که در آن پیش بینی کامپیوتر، تصمیمات کلینیکالی را دیکته می کند”[37]
وقتی که کان و فریدمن مقاله خود را در سال 1992 نوشتند، سیستم APACHE نمونه اصلی بود. آخرین نمونه ارتقاء یافته 111- APACHE، یک پایگاه اطلاعاتی در بر دارد همراه با اطلاعاتی در مورد بیشتر از ششصد هزار بیمار در ICU.این سیستم ادعا می کند که به بیمارستانها کمک می کند تا تغییراتی را که می توانند در روند خود ایجاد کنند را معرفی کنند، مثلاً کاهش طول زمانی که بیمار در ICU می ماند – وبنابراین کاهش هزینه بیمارستان.
آیا حضور APACHE در بیمارستان منجر به کاهش خودمختاری پزشکان شده است؟ بیان پاسخی برای این سؤال بسیار سخت است. اگر پزشکانی که از سیستم پشتیبان تصمیم گیری استفاده می کنند نسبت به سایر پزشکان بتوانند کار بهتری برای بیماران خود انجام دهند، نمی توان گفت که کاهش خودمختاری پزشکان چیز بدی است. با این وجود تشخیص خطری که کان و فریدمن آن را برجسته می کنند مهم است- خطر پزشکانی که ارزیابی درمان بیمار را به عهده ماشین می گذارند.
همچنین کان و فریدمن، دورنمایی از یک سیستم APACHE را ملاحظه کردند که ممکن است روزی از آن، بدون هیچ دخالت مستقیمی توسط انسان تصمیم گیرنده برای خاموش کردن سیستم پشتیبان زندگی استفاده شود. این تفکر ممکن است هشدار دهنده باشد، اما در طول یک دهه و نیمی که از مطرح شدن این نگرانی می گذرد، ما هیچ نمونه عینی را ندیده ایم که کنترل کامل ماشینی روی تصمیم های مرگ و زندگی، دقیق تر از این شده باشد. قبل از آنکه هر شخصی چنین قدم مؤثری بردارد، نرم افزار موجود باید به سطحی ازخبرگی برسد که بتواند از میزان حساسیت اخلاقی هر چیزی که با آن روبه رو می شود، بسیار فراتر رود. APACHE فقط تصور خیلی محدودی از آنچه که بطور اخلاقی به موقعیت ICU مربوط است، دارد. از DsT که بیشتر روی اخلاق متمرکز است انتظار می رود که فقط به بقای بیمار توجه نداشته باشد، بلکه به موضوعاتی از این قبیل هم توجه کند که آیا این مطالعه با خواسته های بیمار و خانواده اش سازگار است، و یا اینکه نتیجه مورد انتظار معالجه، زندگی با کیفیتی را که برای بیمار پذیرفتنی باشد را فراهم خواهد کرد. اینها ملاحظاتی از خودمختاری و سعادت بیمار هستند که معمولاً در مکالمه کامل و باز بین یک پزشک و بیمار به بهترین شکل پاسخ داده می شوند و ممکن است به همین شکل عوامل انسانی دیگر را هم در بر بگیرند. مثل یک همسر یا یک مشاور مذهبی که بیمار از آنها برای شرکت در بحث دعوت می کند.
به طور کلی سیستم پشتیبان تصمیم گیری نباید مجاز باشد که با خطا تصمیم گیری کند. اما این نیاز به DsT های خبره تر را که حوزه گسترده تری از جزئیات مربوط به اخلاق را تبیین می کنند را مرتفع نمی کند- به عبارت دیگر DsT هایی که بیشتر شبیه AMAها هستند. سیستمی که 90 درصد از تصمیماتش درست هستند فقط از یک معیار کور اخلاقی استفاده می کند- مثلاً نرخ های عینی بقا- ممکن است آن 10 درصد گم شده مواردی باشد که قضاوتهای اخلاقی بیشترین اهمیت را آنجا دارند.
امروزه، عملكرد سيستم هاي كامپيوتري مي تواند به تنهاییاز اهمیت چندانی برخوردار نباشد، اما با اين وجود به طور يكجا بسيار جدي است. پیتر نورویگ[38]، كارگردان تحقيق در گوگل[39] متذكر مي شود كه :
“امروزه در ايالات متحده هر روز بين 100 تا 200 مرگ در اثر خطاي پزشکی
وجود دارد و بسیاری از آنها توسط کامپیوترها انجام می شوند. اينها خطاهايي
هستند مثل دادن داروي اشتباه، و یا محاسبه مقدار اشتباهي از دارو.”[40]
با عمومیت یافتن اینترنت در عصرIT و با افزایش دسترسی به اطلاعات، معمای اخلاقی دیگر، حفاظت از اسرار بیماران و حریم خصوصی آنها است. در بیمارستان ها اطلاعات شخصی مربوط به هر بیمار به صورت کامپیوتری ثبت می شود و همین امر باعث صرفه جویی در هزینه ها و سرعت انجام امور است، اما حریم خصوصی و حفظ اسرار بیمار به هنگام انتقال این اطلاعات از طریق شبکه های ارتباطی مخابراتی، در معرض خطر قرار می گیرد. این امر به خاطر آن است که ارتباطات الکترونیکی از طریق تلفن، ایمیل، ماشین های فکس و کامپیوترها می تواند در موقع انتقال اطلاعات، قطع شود و این اطلاعات توسط افراد دیگر خوانده شوند و یا تغییر پیدا کنند. هکرها به صورت بالقوه می توانند به اطلاعات دارویی در یک شبکه دسترسی داشته باشند و اشتباهات کاربران هم می تواند منجر شود به اینکه مثلاً اطلاعات پزشکی به یک آدرس اشتباه فرستاده شوند. در آگوست سال 2000، اعلام شد که به خاطر اشتباهات انسانی، اطلاعات محرمانه 858 نفر از اعضای مؤسسه مراقبتهای بهداشتی کایسر[41]، در اختیار دیگران قرار گرفت.[42] در سال 2001، مرکز پزشکی دانشگاه واشنگتن [43] اعلام کرد که “یک هکر به یکی از پایگاه های اطلاعات این دانشگاه که حاوی اطلاعات محرمانه حداقل 5000 بیمار است، دسترسی پیدا کرده است.”[44] استفاده نادرست از اطلاعات محرمانه بیمار، ممکن است باعث تحقیر شخصیت او و از دست رفتن آبرویش شود. بعلاوه، از آنجایی که جمع آوری و ذخیره الکترونیکی اطلاعات مربوط به سلامت فرد، نمی تواند تضمین کننده حفظ حریم خصوصی او باشد، بیمار، روی کسانی که این تاریخچه پزشکی را می بیند و از آن سوء استفاده می کنند، هیچ قدرت قضایی ای ندارد.
[1] -Computer Ethics
[2] -Cyber Ethics
[3] Internet Ethics
[4] -Core Values
[5] -Moor, J. (1997), “Towards a Theory of Privacy in the Information Age,” Computers and Society, 27(3),p: 27.
[6] -computer in the workplace
[7] -Universal tool
[8] -Forester, T. and P. Morrison
[9] -Forester, T. and P. Morrison (1990), Computer Ethics: Cautionary Tales and Ethical Dilemmas in Computing, Cambridge, MA: MIT Press
[10] -coputer crime
[11] -Spafford, E., K. Heaphy, and D. Ferbrache
[12] – Bynum, Terrell, “Computer and Information Ethics”, The Stanford Encyclopedia of Philosophy (Spring 2011 Edition), Edward N. Zalta (ed.), available at:www.plato.stanford.edu/archives/spr2011/entries/ethics-computer, accessed by:October 2011
[13] -Privacy and Anonymity
2-Bynum, Terrell, “Computer and Information Ethics”, The Stanford Encyclopedia of Philosophy (Spring 2011 Edition), Edward N. Zalta (ed.), available at:www.plato.stanford.edu/archives/spr2011/entries/ethics-computer, accessed by:October 2011
[15] -Ibid,p:6
[16] -Tavani, H. and J. Moor (2001), “Privacy Protection, Control of Information, and Privacy-Enhancing Technologies,” Computers and Society,vol31(1)p:6
[17] -Marx, G. (2001), “Identity and Anonymity: Some Conceptual Distinctions and Issues for Research,” in J. Caplan and J. Torpey (eds.), Documenting Individual Identity, Princeton: Princeton University Press,p:11
[18] -Way back
[19] -Intellectual Property
[20] -Richard Stallman
[21] -Free Softwar Foundation
[22] Marx, G. (2001), “Identity and Anonymity: Some Conceptual Distinctions and Issues for Research,” in J. Caplan and J. Torpey (eds.), Documenting Individual Identity, Princeton: Princeton University Press,p:11
[23] – Ibid,p:8
[24] -casual copying
[25] – Walter Maner,”Unique Ethical Problems In Information Technology”,Science and Engineering Ethics,vol2,137-154,p:5
[26] -Professional Responsibility
[27] -Remotely Operated Vechicles
[28] – Foster_Miller
[29] -Special Weapons Observation Remote Direct-action System
[30] – iRobot
[31] – New york times
[32] – Roland Arkin
[33] – Georgia
[34] – Peter kahn
[35] – Batry Friedman
[36] -Decision support Tools
[37] – Wendell Wallach and Colin Alen,Moral Machines,teaching right from wrong, p:53
[38] – Peter Norvig
[39] -Google
[40] – Wendell Wallach and Colin Alen,Moral Machines,teaching right from wrong,p:35
[41] -Kaiser Permanent Health care System
[42] – C J J Yeo, “Ethical delimas of the practice of medicine in the information technology age”,Sigapore Med J 2003,vol44(3),41-44.p:1
[43] -Washington Medical Center
[44] – Chin T,”Security breach: Hacker gets medical records” ,American Medical
News 2001 Jan 29[online].available at: www. ama-assn.org/sci-pubs/
amnews/pick_01/tesa0129.htm. Accessed February 17,2011