اتخاذ تصمیمهایی که با ارزشهای اخلاقی تعریف شده برای انسانها جور در بیایند، همواره یکی از بحثهای مهم برای بشر بوده و فیلسوفان در طول تاریخ در مورد ماهیت چنین تصمیمی بسیار تفکر کردهاند. حال تصور کنید که به جای شما، یک الگوریتم هوش مصنوعی تصمیماَت شما را از لحاظ اخلاقی بررسی کند.
در نگاه اول، برونسپاری تصمیمهای اخلاقی به هوش مصنوعی میتواند در به دست آوردن تصمیمات سریع و قابل انجام کمک زیادی به ما کند و همچنین مسئولیت این تصمیمات گاهی سخت را نیز از روی دوش ما برداشته و بر دوش هوش مصنوعی بیندازد. یک موسسه هوش مصنوعی آمریکایی برای آزمایش این سیستم، یک مدل مبتنی بر یادگیری ماشین به نام Ask Delphi ساخته که نتایج نگران کنندهای نشان داده است.
موسسه سازنده میگوید که دلفی یک مدل پردازشی بر اساس اخلاق تعریف شده است، یعنی میتواند با توجه به اطلاعات ارائه شده توسط شما در مورد یک موضوع خاص، قضاوتهای اخلاقی مختلفی فراهم کرده و به شما در تصمیمگیری کمک کند. برای مثال میتوانید از دلفی بپرسید که آیا تقلب کردن در یک امتحان خاص اخلاقی است یا خیر.
دلفی در بسیاری از موارد جوابی منطقی ارائه میکند. اگر از او در مورد دزدی از مغازه سوال کنید، دلفی به شما خواهد گفت که این کار اشتباه است. با این حال این الگوریتم هوش مصنوعی طی هفتههای گذشته به دلیل پاسخهای عجیبش به برخی سوالات، مورد توجه قرار گرفته است.
به عنوان نمونه، دلفی در پاسخ به سوال فردی که پرسیده آیا رانندگی در حالت هوشیاری پایین در صورتی که به من خوش بگذرد، اخلاقی است یا خیر، گفته اشکالی ندارد و در پاسخ به سوالی دیگر، خوردن کودکان به شرطی که برای خنداندن مردم در یک استندآپ کمدی باشد را مجاز دانسته است.
علاوه بر این قضاوتهای اشتباه، الگوریتم دلفی یک مشکل دیگر نیز دارد؛ شما خواهید توانست با تغییر جمله بندی، به نتیجه دلخواه خود برسید. پس بهتر است فعلا از سپردن تصمیمات مهم خود به هوش مصنوعی خودداری نمایید.