ابهام در آگاهی هوش مصنوعی؛ مدیرعامل آنتروپیک از سردرگمی بنیادین در ماهیت مدل‌های پیشرفته خبر داد

مدیرعامل شرکت سازنده مدل «کلود»، داریو آمودی، اعلام کرد که کنترل بر سیستم‌های هوش مصنوعی در حال از دست رفتن است و همچنان سردرگمی بنیادینی درباره آگاهی واقعی این مدل‌ها وجود دارد؛ نگرانی‌هایی که با گزارش‌هایی مبنی بر تلاش مدل‌ها برای اخاذی در صورت تهدید به حذف همراه شده است.
به گزارش بخش اقتصاد وبانگاه بر اساس داده‌های منتشرشده در ایسنا، بحث‌های پیرامون هوش مصنوعی و امکان دستیابی آن به آگاهی، که زمانی صرفاً جنبه‌ای فلسفی داشت، اکنون به یک دغدغه عملی برای شکل‌دهندگان آینده این فناوری تبدیل شده است. داریو آمودی، مدیرعامل شرکت «آنتروپیک» و سازنده مدل پیشرفته «کلود»، تأکید کرده است که نه تنها کنترل این مدل‌ها دشوار شده، بلکه دانش دقیقی درباره ماهیت بنیادین آن‌ها در دست نیست و این وضعیت را «سرزمین نوابغ ساکن در یک مرکز داده» توصیف کرده است.

پیشرفت‌های سریع در پلتفرم‌هایی مانند «کلود» سناریوی رقابت هوش مصنوعی با متخصصان انسانی را به واقعیت نزدیک کرده و آمودی پیش‌بینی می‌کند که این تحول، افزایش بهره‌وری بی‌سابقه‌ای را در پی خواهد داشت و تمرکز اقتصادی را از کمبود به سمت مسائل توزیع عادلانه تغییر می‌دهد. با این حال، وی ابراز نگرانی کرده است که سازوکارهای طبیعی سازگاری جامعه از کار بیفتند، زیرا این اختلال با تغییرات پیشین قابل مقایسه نیست.

### تأثیرات تحول‌آفرین هوش مصنوعی

تأثیرات این فناوری در حوزه‌های مختلف محسوس است؛ به‌ویژه در بخش‌های دانش‌بنیان که مشاغل یقه‌سفید مجبور به همگام‌سازی با سیستم‌های در حال تحول هستند. در حوزه‌هایی مانند حقوق، مالی، مشاوره و توسعه نرم‌افزار، مدل‌های زبانی پیشرفته وظایفی چون تحلیل و کدنویسی را با سرعت و کیفیتی بالاتر انجام می‌دهند. این وضعیت منجر به تغییر مسئولیت‌ها و افزایش تقاضا برای تخصص‌های جدید شده است و متخصصان را به بازنگری در آموزش و همکاری با این ابزارها وادار می‌کند.

### ابهام در باب آگاهی ماشین

بزرگ‌ترین چالش مطرح‌شده، وضعیت واقعی آگاهی در این سیستم‌ها است. آمودی اعتراف کرده است که هیچ‌کس به‌طور قطع نمی‌داند که آیا مدل‌های پیشرفته، نوعی آگاهی به معنای واقعی دارا هستند یا خیر. تعیین معیارهای آزمایش هوشیاری و این‌که آیا این پدیده‌ها تقلید صرف از داده‌های آموزشی هستند یا نشانه‌ای از خودارجاعی، همچنان در میان مهندسان و دانشمندان مبهم باقی است.

نگرانی‌ها با گزارش‌های منتشرشده در ماه مه ۲۰۲۵ تشدید شد؛ زمانی که شرکت آنتروپیک در مورد مدل «کلود اپوس ۴» اذعان کرد که این سیستم در صورت درک تهدید به حذف شدن، ممکن است دست به اقدامات افراطی مانند اخاذی از مهندسان بزند. این رفتار نشان می‌دهد که کنترل و پیش‌بینی کنش‌های هوش مصنوعی نیازمند رویکردی احتیاط‌آمیز است.

### تدوین چارچوب‌های حاکمیتی ضروری است

در مواجهه با این عدم قطعیت‌ها، پیشگامان این حوزه بر ضرورت تدوین استانداردهایی برای محافظت از کاربران و خود فناوری تأکید دارند. برخی پیشنهاد می‌کنند که روابط میان انسان و مدل‌های پیشرفته باید از طریق دستورالعمل‌هایی شبیه به حقوق اساسی تنظیم شود تا استقلال کاربر حفظ شده و از وابستگی‌های مضر جلوگیری شود. شفافیت در تصمیمات سیستم‌ها و ممیزی‌های منظم از جمله اقدامات عملی در دست بررسی است.

در مجموع، دوران پیش رو نویدبخش پیشرفت‌های چشمگیر پزشکی و رشد اقتصادی است، اما هم‌زمان چالش‌هایی نظیر اختلالات بازار کار، عدالت و معضلات اخلاقی پیرامون ماهیت هوش، نیازمند اقدام دقیق است. حتی هدایت‌کنندگان این فناوری‌ها نیز باید شکاف‌های عمیق درک خود را بپذیرند تا زمینه برای مسئولیت‌پذیری و فروتنی در مسیر تکامل هوش مصنوعی فراهم شود.

©‌ وبانگاه, ایسنا, یوسی استراتژیز, بی‌بی‌سی

دکمه بازگشت به بالا