
وقتی تصمیمها بیصدا از انسان جدا میشوند
مشکل هوش مصنوعی از جایی شروع نمیشود که اشتباه میکند؛ از جایی شروع میشود که کسی پاسخگوی اشتباه آن نیست.
در سالهای اخیر، هوش مصنوعی مولد وارد لایههایی از تصمیمسازی شده که پیشتر کاملاً انسانی بودند: انتخاب خبر، اولویتبندی اطلاعات، پیشنهاد سیاست، ارزیابی ریسک. این ورود، آرام و تدریجی بوده؛ آنقدر آرام که اغلب متوجه لحظهای که «مسئولیت» جابهجا شد، نشدیم.
این مقاله بهدنبال پاسخ به یک پرسش مشخص است:
«اگر AI تصمیم را پیشنهاد میدهد، اما انسان آن را بدون فهم میپذیرد، مسئول پیامدها دقیقاً با کیست؟»
مسئله اصلی AI، خطا نیست؛ بیمسئولیتی است
در تاریخ فناوری، خطا چیز تازهای نیست؛ نرمافزارها باگ دارند، سیستمها از کار میافتند، دادهها ناقصاند. اما هوش مصنوعی یک تفاوت اساسی دارد: تصمیمسازی را شبیهسازی میکند.
وقتی خروجی شبیه قضاوت انسانی است
مدلهای زبانی بزرگ میتوانند متنی تولید کنند که قانعکننده، منطقی و حتی «اخلاقی» بهنظر برسد.
اما این شباهت ظاهری، باعث یک خطای شناختی خطرناک میشود:
«اعتماد بیش از حد به خروجی ماشینی.»
مطابق گزارش مؤسسه MIT Sloan، کاربران در مواجهه با سیستمهای تصمیمیار مبتنی بر AI، تمایل دارند مسئولیت تصمیم را ناخودآگاه به سیستم واگذار کنند، حتی زمانی که خطا محتمل است [1].
نمونهای آشنا؛ رسانه و بحران پاسخگویی
رسانهها دوباره بهعنوان نمونهای روشن ظاهر میشوند. وقتی خبری که توسط AI تولید یا ویرایش شده، نادرست از آب درمیآید،
پرسش اصلی این نیست که «چرا AI اشتباه کرد؟»
پرسش این است: «چه کسی اجازه انتشار داد؟»
مسئولیت گمشده در زنجیره تولید محتوا
گزارش Reuters Institute نشان میدهد بسیاری از تحریریهها هنوز چارچوب شفافی برای تعیین مسئولیت انسانی در استفاده از AI ندارند [2].
نتیجه؟
ابهام، بیاعتمادی و فرار از پاسخگویی.
خطر واقعی کجاست؟ عادیشدن تصمیمسپاری
بزرگترین خطر هوش مصنوعی، نه در تصمیمهای بزرگ، بلکه در تصمیمهای کوچکِ روزمره است؛
جایی که انسان دیگر مکث نمیکند.
وقتی «پیشنهاد» به «دستور» تبدیل میشود
مطالعهای از OECD نشان میدهد هرچه سیستمهای هوشمند بیشتر در فرآیند تصمیم ادغام شوند، احتمال بهچالشکشیدن خروجی آنها توسط انسان کاهش مییابد [3].
این یعنی تصمیمسپاری تدریجی، بدون اعلام رسمی.
رویکرد انسانی؛ مسئولیت را نمیتوان اتوماسیون کرد
اگر بخواهیم از دام بیمسئولیتی فرار کنیم، باید یک اصل ساده را بپذیریم:
«هیچ تصمیمی که پیامد انسانی دارد، نباید بدون مسئول انسانی باقی بماند.»
سه اصل برای بازگرداندن مسئولیت
- AI باید قابل توضیح باشد، نه صرفاً قانعکننده
- نقطه تصمیم نهایی باید انسانی و مشخص باشد
- مسئولیت حقوقی و اخلاقی نباید به الگوریتم واگذار شود
این نگاه، در بسیاری از اسناد سیاستگذاری اتحادیه اروپا و OECD بهعنوان «Human-in-the-Loop» شناخته میشود [4]
تجربه بومی؛ چرا این مسئله در ایران جدیتر است؟
در کشورهایی که چارچوبهای حقوقی و رسانهای هنوز در حال تثبیتاند، خطر بیمسئولیتی تشدید میشود.
AI اگر بدون طراحی آگاهانه وارد سازمانها شود، میتواند تصمیمگیر پنهان شود.
در شرکت توسعه فناوریهای نوین رایانهای صبا، رویکرد طراحی ابزارهایی مانند BornaAI بر همین اساس بوده است:
«خروجی AI باید تحلیل را تقویت کند، نه اینکه مسئولیت را حذف کند.»

فناوری بالغ نمیشود، ما بالغ میشویم
هوش مصنوعی نه مسئول است و نه غیرمسئول؛ این انسانها هستند که مسئولیت را حفظ یا رها میکنند.
اگر قرار است AI آینده را شکل دهد، باید از امروز روشن کنیم:
- چه کسی تصمیم میگیرد؟
- چه کسی پاسخگوست؟
- و چه کسی حق «نه گفتن» دارد؟
در غیر این صورت، خطر اصلی نه هوش مصنوعی، بلکه انسانِ کنارکشیده از مسئولیت خواهد بود.
منابع
[1] MIT Sloan Management Review – Human–AI Decision Making
[2] Reuters Institute – Digital News Report
https://www.digitalnewsreport.org
[3] OECD – AI, Responsibility and Governance
[4] European Commission – Ethics Guidelines for Trustworthy AI
https://digital-strategy.ec.europa.eu










