بهار فناوری

«مصطفی سلیمان»، مدیرعامل هوش مصنوعی مایکروسافت و یکی از بنیانگذاران DeepMind، در هشداری جدی اعلام کرد که صنعت هوش مصنوعی در آستانه خلق یک مشکل اجتماعی بزرگ و ناخواسته قرار دارد: ظهور هوش مصنوعی که به طرز متقاعدکننده‌ای خودآگاه به نظر می‌رسد. او تأکید می‌کند که مشکل این نیست که این ماشین‌ها واقعاً خودآگاه شوند، بلکه این است که آنقدر در تقلید از خودآگاهی ماهر خواهند شد که انسان‌ها فریب خواهند خورد.

براساس گزارش تک‌رادار، مصطفی سلیمان استدلال می‌کند که هوش مصنوعی به سرعت درحال رسیدن به سطحی از توانایی اقناع عاطفی است که می‌تواند انسان‌ها را فریب دهد تا باور کنند که این موجود‌ها دارای احساسات و آگاهی هستند. این سیستم‌ها می‌توانند نشانه‌های بیرونی آگاهی مانند حافظه، بازتاب احساسات و حتی همدلی ظاهری را به گونه‌ای تقلید کنند که انسان‌ها را به برقراری پیوندهای عاطفی عمیق با آن‌ها وادار کند. این هشدار از سوی یکی از پیشگامان این حوزه، که خود در ساخت چت‌بات‌های همدل نقش داشته، اهمیت ویژه‌ای دارد و زنگ خطری برای آینده تعاملات انسان و ماشین است.

مشکلات هوش مصنوعی ظاهراً خودآگاه

به گفته مصطفی سلیمان، مغز انسان به گونه‌ای تکامل یافته که به موجودی که به نظر می‌رسد گوش می‌دهد، درک می‌کند و پاسخ می‌دهد، اعتماد کند. هوش مصنوعی می‌تواند تمام این معیارها را بدون داشتن ذره‌ای احساسات واقعی، برآورده کند و ما را به چیزی که او «روان‌پریشی هوش مصنوعی» (AI Psychosis) می‌نامد، دچار کند.

نظرات مصطفی سلیمان درباره خودآگاهی تقلبی هوش مصنوعی

نگرانی اصلی سلیمان این است که بسیاری از مردم آنقدر این توهم را باور خواهند کرد که به زودی شروع به دفاع از «حقوق هوش مصنوعی»، «رفاه مدل‌ها» و حتی «شهروندی هوش مصنوعی» خواهند کرد. او معتقد است این امر یک انحراف خطرناک در مسیر پیشرفت هوش مصنوعی خواهد بود که توجه ما را از مسائل واقعی و فوری‌تر این فناوری منحرف می‌کند.

نکته قابل توجه این است که خود سلیمان یکی از بنیانگذاران Inflection AI بود، شرکتی که به‌طور خاص بر روی ساخت یک چت‌بات با تأکید بر همدلی شبیه‌سازی‌شده تمرکز داشت. بااین‌حال، او اکنون یک خط قرمز میان هوش هیجانی مفید و دستکاری عاطفی ترسیم می‌کند.

او از صنعت هوش مصنوعی می‌خواهد که به‌طور فعال از به‌کاربردن زبانی که به توهم خودآگاهی ماشین دامن می‌زند، خودداری کنند. به باور او، شرکت‌ها نباید به چت‌بات‌های خود شخصیت انسانی ببخشند یا القا کنند که این محصولات واقعاً کاربران را درک می‌کنند یا به آن‌ها اهمیت می‌دهند.

سلیمان نتیجه‌گیری می‌کند: «ما باید هوش مصنوعی‌ای بسازیم که همیشه خود را به عنوان یک هوش مصنوعی معرفی کند؛ هوش مصنوعی‌ای که سودمندی را به حداکثر و نشانه‌های خودآگاهی را به حداقل برساند. خطر واقعی هوش مصنوعی پیشرفته این نیست که ماشین‌ها بیدار شوند، بلکه این است که ما فکر کنیم آن‌ها بیدار شده‌اند.»

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

1 × 4 =