دور زدن محدودیت اخلاقی در هوش مصنوعی؛ بایدها و نبایدها

0
دور زدن محدودیت اخلاقی در هوش مصنوعی؛ بایدها و نبایدها
هوش مصنوعی به یکی از فناوری‌های محوری زندگی تبدیل شده که تأثیرات زیادی بر جنبه‌های مختلف فردی و اجتماعی بشر گذاشته و البته هم‌زمان با رشد توانایی‌های فنی، پرسش‌ها درباره‌ی محدودیت‌های اخلاقی هوش مصنوعی هم رو به افزایش است.

هنگام استفاده از مدل‌های هوش مصنوعی مولد، همیشه این پرسش مطرح است که تا چه حدی باید برای دریافت داده‌ها و ارائه‌ی پاسخ محدودیت گذاشت و آیا در نهایت می‌توان مفهوم هوش مصنوعی بدون سانسور یا هوش مصنوعی بدون محدودیت‌های اخلاقی را پذیرفت؟ در حالی که عده‌ای در جست‌وجوی راه‌هایی برای دور زدن محدودیت‌های اخلاقی هوش مصنوعی هستند، برخی دیگر به اهمیت چارچوب‌ها و نظارت در توسعه‌ی این فناوری تأکید می‌کنند.

در این مطلب با نگاهی به محدودیت‌های اخلاقی هوش مصنوعی، امکان وجود هوش مصنوعی بدون محدودیت اخلاقی واقعی، دلیل تمایل به دور زدن محدودیت‌ها و پیامدهای آن را بررسی می‌کنیم.

محدودیت‌های اخلاقی هوش مصنوعی

هوش مصنوعی به خودی خود، از مفاهیم اخلاقی و اصول آن به مفهوم عمیق انسانی چیزی نمی‌داند، بلکه چون زاده‌ی خلاقیت و علم انسان است، محدودیت‌های آن هم به قواعد، چارچوب‌ها، و اصولی گفته می‌شود که توسعه‌دهندگان، قانون‌گذاران یا سازمان‌های بین‌المللی برای جلوگیری از آسیب، تبعیض، خطرات امنیتی، نقض حقوق انسان‌ها و سوء استفاده از ابزارهای هوش مصنوعی وضع کرده‌اند.

از جمله موارد مهم در بحث اخلاقیات هوش مصنوعی، حریم خصوصی و حفاظت از داده‌هاست. داده‌های استفاده شده برای آموزش مدل‌ها، ممکن است شامل اطلاعات حساس یا شخصی باشند. بنابراین تضمین اینکه جمع‌آوری داده‌ها با رضایت افراد صورت گرفته باشد و استفاده‌ی آن‌ها کنترل‌شده باشد، اهمیت پیدا می‌کند.

عدالت و پرهیز از تبعیض میان گروه‌ها و افراد مختلف بحث اخلاقی دیگری است که برای هوش مصنوعی مطرح می‌شود. داده‌های آموزشی اغلب سوگیری‌هایی دارند و اگر این سوگیری‌ها در هوش مصنوعی تقویت شوند یا مدل‌ها به طور ناعادلانه برای گروه‌های آسیب‌پذیر تصمیم بگیرند، پیامدهای اخلاقی بزرگی دارد.


نگرانی‌ها و چالش‌های اخلاقی هوش مصنوعی

از سوی دیگر، شفافیت و توضیح‌پذیری در مدل‌های هوش مصنوعی اهمیت زیادی دارد چون تصمیمات مدل‌ها گاهی برای کاربران «جعبه سیاه» محسوب می‌شوند و دلیل یک خروجی خاص مشخص نیست. در چنین شرایطی و با بروز خطا، ایمنی و مسؤولیت‌پذیری هم اهمیت پیدا می‌کند تا معلوم باشد که چه کسی پاسخگو است و همچنین باید روش‌ها و فرآیندهایی برای جبران وجود داشته باشد.

ارزش‌های بنیادین بشری مانند آزادی بیان، کرامت انسانی، داشتن اختیار و استفاده نشدن از هوش مصنوعی عمومی در کاربردهای ضدبشری یا نظارت غیرموجه هم جزو محدودیت‌هایی هستند که به طور گسترده پذیرفته شده‌اند. برخی محدودیت‌های کاربردی دیگر هم به دلیل مخاطرات اجتماعی، زیست‌محیطی یا قانونی در حوزه‌هایی مثل نظارت گسترده یا تصمیم‌گیری قضایی بدون نظارت انسانی مورد توجهند.

هوش مصنوعی بدون محدودیت اخلاقی

از نظر فنی، هر سیستمی محدودیت‌هایی دارد که هم شامل محدودیت فنی از جمله داده، توان محاسباتی، پیچیدگی و هم شامل محدودیت اخلاقی می‌شود که طراحی و قوانین بیرونی آن را تعیین می‌کند. در حقیقت، صحبت از هوش مصنوعی بدون محدودیت اخلاقی، معمولا اشاره به سامانه‌ای مبتنی بر هوش مصنوعی است که بتواند قوانین اخلاقی را دور بزند یا از نظر محتوا، بدون قید و بند عمل کند.

چون مدل‌های هوش مصنوعی در حوزه‌های مختلف کاربرد دارند، نگاه به اخلاق هم در آن‌ها طبقه‌بندی متفاوتی دارد و برخی مرزهای بازتری را برای تولید محتوای ماشینی در نظر گرفته‌اند. با این وجود حتی مدل‌های با آزادی بیشتر هم به دلایل قانونی، اخلاقی، تجاری یا اجتماعی مرزهایی دارند و از جمله‌ی آن‌ها می‌توان به ممنوعیت محتوای آسیب‌زا، سوء استفاده از کودکان، صراحت و خشونت جنسی، نقض حقوق دیگران و نژادپرستی اشاره کرد.


محدودیت‌های هوش مصنوعی

به نظر می‌رسد که این روند تا کنون مورد پذیرش غالب کاربران و نظارت‌کنندگان هم بوده و حتی در برخی زمینه‌ها، صراحت بیشتر و تغییر نگاه مدل‌های هوش مصنوعی به اصول اخلاقی، جنجال‌برانگیز هم شده است. از جمله گوگل پیش از این وعده‌ی استفاده نکردن از AI در زمینه‌ی تسلیحاتی یا نظارت و کاربردهای آسیب‌زا داده بود اما اکنون برخی از این موارد را در راهنمای خود تعدیل یا حذف کرده است و این یعنی فشارها یا اولویت‌های متغیر، می‌تواند محدودیت‌های اخلاقی فعلی را تضعیف کند.

گاهی نگرانی خود شرکت‌ها باعث محدودیت در انتشار مدل‌های هوش مصنوعی می‌شود. از جمله OpenAI که نسخه‌ی کامل GPT-2 را به دلیل نگرانی از کاربردهای زیان‌بار آن، با تأخیر عرضه کرد. چنین تصمیماتی برای داشتن نظارت بیشتر بر محدودیت‌های فنی و اخلاقی است. با این حال باز هم ممکن است پاسخ‌های هوش مصنوعی از کنترل سازندگان هم خارج شود. الگوریتم‌هایی که به درستی و به صورت جامع، هشدارهای بهداشتی، داده‌های اقتصادی یا داده‌های مرتبط با اقلیت‌ها را بازتاب ندهند، به نتایج ناعادلانه‌ای منجر می‌شوند که نشان می‌دهد محدودیت‌های اخلاقی در آموزش مدل‌ها در نظر گرفته نشده است.

دور زدن محدودیت هوش مصنوعی

میل به شکستن محدودیت‌ها همیشه در انسان وجود دارد و حتی در زمینه‌ی اخلاقی نمی‌توان آن را نادیده گرفت. دلایل زیادی وجود دارد که کاربران بخواهند حتی محدودیت اخلاقی سرویس‌های هوش مصنوعی را دور بزنند. برخی معتقدند محدودیت‌ها یا سانسور، مانع خلاقیت، آزادی بیان و دسترسی کامل به اطلاعات می‌شوند و به همین دلیل از هوش مصنوعی بدون سانسور یا هوش مصنوعی بدون محدودیت استقبال می‌شود.

برخی دیگر تنها از روی کنجکاوی یا سرگرمی و درک مرز محدودیت‌های سیستم، به دنبال دور زدن آن‌ها هستند. ضمن اینکه انگیزه‌های اقتصادی یا سیاسی هم نقش مهمی دارند. از سوی دیگر کاربرانی که محتوایی ورای قوانین و اخلاق عمومی می‌خواهند، از جمله تبلیغات جنسی، نفرت‌پراکنی، اخبار دروغ، تبلیغات مخرب یا ابزارهایی برای دسترسی به هک، ممکن است به دنبال دور زدن محدودیت‌ها و فعالیت آزادانه‌تر باشند.


دور زدن هوش مصنوعی

دور زدن محدودیت‌ها ممکن است منطقی‌تر هم به نظر برسد. وقتی کاربران احساس کنند نهادها یا شرکت‌ها ممکن است منافعی داشته باشند یا معیارها شفاف و عادلانه نباشند، اعتماد کاهش پیدا می‌کند و تمایل به استفاده از سیستم‌های موسوم به «هوش مصنوعی بدون محدودیت‌های اخلاقی» افزایش می‌یابد. در نهایت، تفاوت در قوانین میان کشورها و پلتفرم‌ها و ضعف در نظارت اجرایی، فرصتی را فراهم می‌کند که برخی افراد از شکاف‌ها در جهت اهداف خود استفاده کنند.

پیامدهای دور زدن محدودیت‌های اخلاقی هوش مصنوعی

فراتر رفتن از محدودیت اخلاقی هوش مصنوعی، می‌تواند پیامدهای مختلفی داشته باشد. اگر این دور زدن مسؤولانه و هدفمند انجام شود که در زمینه‌هایی مانند پژوهش و نوآوری علمی، هنر و ادبیات، آزمایش‌های ایمنی و کشف باگ، آزادی بیان و عدالت الگوریتمی کاربردی است، فراتر رفتن از محدودیت‌های بیش از حد محافظه‌کارانه‌ی برخی مدل‌های هوش مصنوعی، می‌تواند مثبت باشد.


مفهوم اخلاق در هوش مصنوعی اثر زیادی در شکل‌گیری جوامع آینده دارد.

با این حال در اغلب موارد دور زدن این محدودیت‌ها نتایج ناخوشایندی به همراه خواهد داشت. از جمله باعث گسترش تبعیض و نابرابری، مثلا در سرویس‌های سلامت، بیمه یا اشتغال می‌شود، نقض حقوق مدنی و انسانی مثل حریم خصوصی و آزادی بیان را به دنبال دارد و علاوه بر این، احتمال سوء استفاده‌های امنیتی و جرایم سایبری، انتشار محتوای نفرت‌پراکنی یا اخبار جعلی، جعل هویت و آسیب به افکار عمومی بسیار بالا می‌رود.

در نهایت کاهش اعتماد عمومی به فناوری، شرکت‌ها و نهادهای نظارتی و هزینه‌های مالی و حقوقی ایجاد شده برای آن‌ها هم از پیامدهای احتمالی مهم دور زدن محدودیت‌های اخلاقی هوش مصنوعی است.

راهکارهای حفظ محدودیت‌های اخلاقی مؤثر

برای مؤثر بودن چارچوب‌های اخلاقی هوش مصنوعی، باید مقررات روشن و الزام‌آوری وضع شوند. وجود نهادهای نظارتی مستقل برای نظارت بیرونی، گزارش‌دهی شفاف، امکان حسابرسی و پاسخگویی شفاف میان شرکت‌ها، دولت‌ها و جامعه‌ی مدنی هم در این زمینه بسیار مهم است. مشارکت فعال کاربران و اقلیت‌ها و گروه‌های آسیب‌پذیر، باید در طراحی این محدودیت‌ها لحاظ شود تا اصول اخلاقی هوش مصنوعی بازتاب‌دهنده‌ی واقعیت‌های اجتماعی و فرهنگی باشند.

نمونه‌ی برجسته‌ی این تلاش‌ها قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) است که در سال 2024 تصویب و در آن ضمن طبقه‌بندی ریسک، الزامات ایمنی و شفافیت برای توسعه‌دهندگان و ارائه‌دهندگان سیستم‌های هوش مصنوعی تعیین شد.


حفظ محدودیت‌های کاربردی در هوش مصنوعی

از سوی دیگر آموزش و آگاهی‌بخشی به توسعه‌دهندگان، کاربران و قانون‌گذاران، درباره‌ی پیامدهای واقعی هوش مصنوعی بدون محدودیت اخلاقی ضروری است. در طراحی سیستم‌ها هم باید از ابتدا اصولی مانند حفظ حریم خصوصی، عدالت، شفافیت و قابلیت توضیح‌پذیری تعبیه شود و امکان نظارت انسانی، توقف یا بازگرداندن تصمیمات سیستم در شرایط خطا یا سوء استفاده به طور کامل فراهم باشد. علاوه بر اینکه باید سازوکار پاسخگویی و جبران خسارت هنگام آسیب هم در نظر گرفته شود.

جمع‌بندی

در نهایت باید در نظر داشت که چارچوب‌های اخلاقی و هنجارها موضوعی نسبی است و می‌تواند از جامعه‌ای به جامعه‌ی دیگر و از نسلی به نسل دیگر تغییر کند. شاید به همین دلیل است که هنوز قوانین و چارچوب‌های کاملا مشخصی برای هوش مصنوعی وضع نشده است اما هنجارهایی که به صورت عمومی در سراسر جهان امروز پذیرفته شده‌اند و قوانین کلی‌تر، می‌توانند مبنایی برای چارچوب‌های اخلاقی هوش مصنوعی در نظر گرفته شود.

چارچوب‌هایی که به طور خودکار از سوی اغلب کاربران رعایت می‌شود و ابزارهای هوش مصنوعی هم به عنوان ساخته‌های همین جامعه با رعایت آن‌ها برنامه‌نویسی و پایه‌گذاری شده‌اند. اما برای تکمیل این روند، داشتن قوانین شفاف و قابل اجرا، امکان نظارت انسانی بر ساختار مدل‌های هوش مصنوعی و طراحی روند جبران خسارت، می‌تواند اطمینان دهد که محدودیت‌های اخلاقی نه مانع نوآوری، بلکه پایه‌ای برای پیشرفت مسؤولانه‌تر هوش مصنوعی‌ هستند.
اشتراک گذاری:
  • مطالب مرتبط

    

    ارسال مطلب به ایمیل دوستاتون:


    1,393 بازدید

    0 نظر

    درج: 29 شهریور 1404

    توسط: u-617772
    وضعیت: آفلاین
    گروه کاربری: پشتیبانی سایت

    ارسال دیدگاه (0 مورد)

    در حال حاضر نظری در این مطلب ارسال نشده است.
    کتاب‌های برنامه ریزی
    فرهنگیان
    کتاب های بیست پک
    جامع انسانی

    دسته بندی مطالب

    کتاب های موضوعی
    تیزهوشان

    آخرین نظرات ارسالی

    سلام وقت بخیر میشه موجودش کنید لطفااااااااااااااا
    سلام کتابی که ارسال میشه چاپ ۱۴۰۴ـ۱۴۰۵ هستش؟؟
    سلام یه ماه منتظرم کتاب موجود بشه پس چرا موجودش نمی کنید اگه
    نسخه 1404 این کتاب چه زمانی منتشر میشه ؟
    پس کی موجود میشه؟ T^T
    سلام این کتاب کی موجود میشه

    آمار سایت

    با ما در ارتباط باشید ، منتظر نظرات شما هستیم.
    
    عضویت در خبرنامه ایمیلی :
    برای عضویت در خبرنامه پیامکی، عدد 1 را به 02196884 پیامک کنید.
    رضایت مندی مشتری
    جشنواره وب و موبایل ایران
    جشنواره وب و موبایل ایران
    جشنواره کتاب مجازی
    برند محبوب مصرف کنندگان
    Copyright © 2010 - 2023 Mehromah.ir