چرا هوش مصنوعی بدون مسئولیت انسانی، می‌تواند خطرناک‌تر از نبود آن باشد؟

چرا هوش مصنوعی بدون مسئولیت انسانی، می‌تواند خطرناک‌تر از نبود آن باشد؟
چرا هوش مصنوعی بدون مسئولیت انسانی، می‌تواند خطرناک‌تر از نبود آن باشد؟

 

وقتی تصمیم‌ها بی‌صدا از انسان جدا می‌شوند

 

مشکل هوش مصنوعی از جایی شروع نمی‌شود که اشتباه می‌کند؛ از جایی شروع می‌شود که کسی پاسخ‌گوی اشتباه آن نیست.

 

در سال‌های اخیر، هوش مصنوعی مولد وارد لایه‌هایی از تصمیم‌سازی شده که پیش‌تر کاملاً انسانی بودند: انتخاب خبر، اولویت‌بندی اطلاعات، پیشنهاد سیاست، ارزیابی ریسک. این ورود، آرام و تدریجی بوده؛ آن‌قدر آرام که اغلب متوجه لحظه‌ای که «مسئولیت» جابه‌جا شد، نشدیم.

 

این مقاله به‌دنبال پاسخ به یک پرسش مشخص است:

«اگر AI تصمیم را پیشنهاد می‌دهد، اما انسان آن را بدون فهم می‌پذیرد، مسئول پیامدها دقیقاً با کیست؟»

 

 

مسئله اصلی AI، خطا نیست؛ بی‌مسئولیتی است

 

در تاریخ فناوری، خطا چیز تازه‌ای نیست؛ نرم‌افزارها باگ دارند، سیستم‌ها از کار می‌افتند، داده‌ها ناقص‌اند. اما هوش مصنوعی یک تفاوت اساسی دارد: تصمیم‌سازی را شبیه‌سازی می‌کند.

 

 

وقتی خروجی شبیه قضاوت انسانی است

 

مدل‌های زبانی بزرگ می‌توانند متنی تولید کنند که قانع‌کننده، منطقی و حتی «اخلاقی» به‌نظر برسد.

اما این شباهت ظاهری، باعث یک خطای شناختی خطرناک می‌شود:

«اعتماد بیش از حد به خروجی ماشینی.»

 

مطابق گزارش مؤسسه MIT Sloan، کاربران در مواجهه با سیستم‌های تصمیم‌یار مبتنی بر AI، تمایل دارند مسئولیت تصمیم را ناخودآگاه به سیستم واگذار کنند، حتی زمانی که خطا محتمل است [1].

 

 

نمونه‌ای آشنا؛ رسانه و بحران پاسخ‌گویی

 

رسانه‌ها دوباره به‌عنوان نمونه‌ای روشن ظاهر می‌شوند. وقتی خبری که توسط AI تولید یا ویرایش شده، نادرست از آب درمی‌آید،

 

پرسش اصلی این نیست که «چرا AI اشتباه کرد؟»

پرسش این است: «چه کسی اجازه انتشار داد؟»

 

 

مسئولیت گم‌شده در زنجیره تولید محتوا

 

گزارش Reuters Institute نشان می‌دهد بسیاری از تحریریه‌ها هنوز چارچوب شفافی برای تعیین مسئولیت انسانی در استفاده از AI ندارند [2].

نتیجه؟

ابهام، بی‌اعتمادی و فرار از پاسخ‌گویی.

 

 

خطر واقعی کجاست؟ عادی‌شدن تصمیم‌سپاری

 

بزرگ‌ترین خطر هوش مصنوعی، نه در تصمیم‌های بزرگ، بلکه در تصمیم‌های کوچکِ روزمره است؛ 

جایی که انسان دیگر مکث نمی‌کند.

 

 

وقتی «پیشنهاد» به «دستور» تبدیل می‌شود

 

مطالعه‌ای از OECD نشان می‌دهد هرچه سیستم‌های هوشمند بیشتر در فرآیند تصمیم ادغام شوند، احتمال به‌چالش‌کشیدن خروجی آن‌ها توسط انسان کاهش می‌یابد [3].

این یعنی تصمیم‌سپاری تدریجی، بدون اعلام رسمی.

 

 

رویکرد انسانی؛ مسئولیت را نمی‌توان اتوماسیون کرد

 

اگر بخواهیم از دام بی‌مسئولیتی فرار کنیم، باید یک اصل ساده را بپذیریم:

«هیچ تصمیمی که پیامد انسانی دارد، نباید بدون مسئول انسانی باقی بماند.»

 

 

سه اصل برای بازگرداندن مسئولیت

  1. AI باید قابل توضیح باشد، نه صرفاً قانع‌کننده
  2. نقطه تصمیم نهایی باید انسانی و مشخص باشد
  3. مسئولیت حقوقی و اخلاقی نباید به الگوریتم واگذار شود

 

این نگاه، در بسیاری از اسناد سیاست‌گذاری اتحادیه اروپا و OECD به‌عنوان «Human-in-the-Loop» شناخته می‌شود [4]

 

 

تجربه بومی؛ چرا این مسئله در ایران جدی‌تر است؟

 

در کشورهایی که چارچوب‌های حقوقی و رسانه‌ای هنوز در حال تثبیت‌اند، خطر بی‌مسئولیتی تشدید می‌شود.

AI اگر بدون طراحی آگاهانه وارد سازمان‌ها شود، می‌تواند تصمیم‌گیر پنهان شود.

در شرکت توسعه فناوری‌های نوین رایانه‌ای صبا، رویکرد طراحی ابزارهایی مانند BornaAI بر همین اساس بوده است:

«خروجی AI باید تحلیل را تقویت کند، نه اینکه مسئولیت را حذف کند.»


 

 

 

فناوری بالغ نمی‌شود، ما بالغ می‌شویم

 

هوش مصنوعی نه مسئول است و نه غیرمسئول؛ این انسان‌ها هستند که مسئولیت را حفظ یا رها می‌کنند.

 

اگر قرار است AI آینده را شکل دهد، باید از امروز روشن کنیم:

  • چه کسی تصمیم می‌گیرد؟
  • چه کسی پاسخ‌گوست؟
  • و چه کسی حق «نه گفتن» دارد؟

 

در غیر این صورت، خطر اصلی نه هوش مصنوعی، بلکه انسانِ کنارکشیده از مسئولیت خواهد بود.

 

 

منابع

[1] MIT Sloan Management Review – Human–AI Decision Making

https://sloanreview.mit.edu

[2] Reuters Institute – Digital News Report

https://www.digitalnewsreport.org

[3] OECD – AI, Responsibility and Governance

https://www.oecd.org

[4] European Commission – Ethics Guidelines for Trustworthy AI

https://digital-strategy.ec.europa.eu

۰
از ۵
۰ مشارکت کننده