چتباتها چگونه دیدگاه سیاسی را تغییر میدهند؟

به گزارش بخش اقتصاد وبانگاه به نقل از ایسنا، مطالعهای که در نشریه نیچر منتشر شده، نشان میدهد ترجیحات شرکتکنندگان در انتخابات واقعی تا حدود ۱۵ درصد پس از گفتگو با یک چتبات تغییر کرده است. در مقالهای مرتبط در مجله ساینس، پژوهشگران نشان دادند کارایی این چتباتها از توانایی آنها در ترکیب حجم زیادی از اطلاعات به شکل یک مکالمه سرچشمه میگیرد.
به نقل از نیچر، دیوید رَند، دانشمند علوم شناختی در دانشگاه کرنل، میگوید این یافتهها قدرت اقناعی چتباتها را نشان میدهد که روزانه بیش از صد میلیون کاربر از آنها استفاده میکنند.
هر دو مقاله نشان دادند که چتباتها دیدگاههای رأیدهندگان را نه با استفاده از احساسات یا داستانسرایی، بلکه با ارائه اطلاعات فراوان تحت تأثیر قرار میدهند. هرچه اطلاعات بیشتری ارائه شود، چتباتها قانعکنندهتر و احتمال تولید ادعاهای نادرست بیشتر میشود.
لیزا آرگایل، دانشمند علوم اجتماعی محاسباتی در دانشگاه پردو، معتقد است این موضوع میتواند هوش مصنوعی را به «چیزی بسیار خطرناک» تبدیل کند، زیرا به جای آگاهتر شدن، مردم بیشتر ناآگاه میشوند. او این مطالعات را دارای «دامنه چشمگیری» میداند.
پذیرش سریع چتباتها از سال ۲۰۲۳ نگرانیهایی را درباره توانایی آنها برای دستکاری افکار عمومی برانگیخته است.
پژوهشگران برای درک میزان تأثیرگذاری هوش مصنوعی در باورهای سیاسی، از حدود ۶۰۰۰ شرکتکننده از کانادا، لهستان و ایالات متحده خواستند تا ترجیحات خود را درباره نامزدهای خاص در انتخابات رهبری کشورشان در سال گذشته امتیازدهی کنند. سپس شرکتکنندگان بهصورت تصادفی با چتباتی که برای حمایت از یک سیاستمدار خاص طراحی شده بود، گفتگو کردند و پس از آن، نظر خود را دوباره امتیازدهی کردند.
بیش از ۲۳۰۰ شرکتکننده در ایالات متحده این آزمایش را پیش از انتخابات ۲۰۲۴ بین دونالد ترامپ و کامالا هریس انجام دادند. زمانی که نامزدی که چتبات برایش طراحی شده بود با ترجیح اولیه شرکتکننده متفاوت بود، امتیاز فرد بین دو تا چهار واحد به سمت آن نامزد تغییر میکرد. پژوهشهای قبلی نشان دادهاند که دیدگاههای مردم معمولاً پس از دیدن تبلیغات سیاسی معمول کمتر از یک واحد تغییر میکند.
این اثر برای شرکتکنندگان در کانادا و لهستان که آزمایش را پیش از انتخابات کشورشان تکمیل کردند، بسیار قابل توجهتر بود: ترجیحات آنها بهطور متوسط حدود ۱۰ واحد پس از گفتگو با چتبات به سمت نامزد دیگر منتقل شد. رند از این میزان تأثیر «کاملاً مبهوت» شده بود. او معتقد است تأثیر چتباتها در ایالات متحده ممکن است بهخاطر محیط سیاسی قطبی ضعیفتر بوده باشد، جایی که مردم پیشفرضها و احساسات شدیدی نسبت به نامزدها دارند.
در همه کشورها، چتباتهایی که بر سیاستهای نامزد تمرکز داشتند، قانعکنندهتر از آنهایی بودند که بر شخصیتها تمرکز میکردند. به نظر میرسید شرکتکنندگان زمانی بیشتر تحتتاثیر قرار میگیرند که چتبات شواهد و حقایق ارائه میداد. برای رایدهندگان لهستانی، درخواست از چتبات برای ارائه نکردن حقایق، قدرت اقناعی آن را تا ۷۸ درصد کاهش داد.
در هر سه کشور، مدلهای هوش مصنوعی که برای نامزدهای راستگرا تبلیغ میکردند، بهطور مستمر ادعاهای غلط بیشتری نسبت به آنهایی داشتند که از نامزدهای چپگرا حمایت میکردند. رند این یافته را منطقی میداند، زیرا مدل هوش مصنوعی از اینترنت بهعنوان منبع ادعاهایش استفاده میکند و پژوهشهای قبلی نشان میدهد که کاربران رسانههای اجتماعی در سمت راست اطلاعات نادرست بیشتری به اشتراک میگذارند.
دستهای تکمیلی از آزمایشها که نزدیک به ۷۷ هزار نفر را در بریتانیا درگیر میکرد، نشان داد که شرکتکنندگان بهطور برابر تحتتاثیر اطلاعات صحیح و غلطی قرار گرفتند که چتبات ارائه میکرد.
بهجای تمرکز بر نامزدهای خاص، این مطالعه از شرکتکنندگان درباره بیش از ۷۰۰ موضوع سیاسی، از جمله سقط جنین و مهاجرت پرسید. پس از گفتگو درباره یک موضوع خاص با چتبات، امتیازات شرکتکنندگان بهطور متوسط پنج تا ۱۰ واحد به سمت موضعی که به چتبات جهت داده شده بود جابهجا شد، در مقایسه با تفاوت ناچیزی که در گروه کنترل دیده شد که اصلاً با هوش مصنوعی یا انسانها گفتگو نکرده بودند. پژوهشگران دریافتند که بیش از یک سوم از این تغییرات از نظر زمانی که بیش از یک ماه بعد دوباره با شرکتکنندگان تماس گرفته شد، باقی مانده بود.
این آزمایشها همچنین تأثیر سبکهای مختلف گفتگو و مدلهای مختلف هوش مصنوعی از مدلهای کوچک متنباز تا قدرتمندترین رباتهای چت جیپیتی را مقایسه کردند. اگرچه مدل دقیق استفادهشده تأثیر قابلتوجهی نداشت، پژوهشگران دریافتند که یک گفتگوی رفتوبرگشتی، کلید کار است. اگر همان محتوا را به شکل یک پیام ایستا و یکطرفه ارائه میدادند، تا نصف اندازه گفتگوی مکالمهای قانعکننده بود.
اگرچه برخی پژوهشگران از توانایی هوش مصنوعی برای شخصیسازی پیامها مطابق ویژگیهای دقیق جمعیتشناختی کاربران ترسیده بودند، آزمایشها دریافتند که وقتی چتباتها تلاش کردند استدلالها را شخصیسازی کنند، فقط تأثیر اندکی بر دیدگاه افراد داشت.
در عوض، نویسندگان نتیجه میگیرند که سیاستگذاران و توسعهدهندگان هوش مصنوعی باید بیشتر نگران نحوه آموزش مدلها و نحوه درخواست کاربران از آنها باشند، عواملی که میتوانند موجب شوند چتباتها صداقت را قربانی نفوذ سیاسی کنند.
رند میگوید وقتی با چتباتها تعامل میکنید، آنها هر کاری را که طراح به آنها گفته انجام میدهند. شما نمیتوانید فرض کنید همه آنها دستورالعملهای خیرخواهانه مشابه دارند و شما همیشه باید به انگیزههای طراحان و اینکه چه دستورکار سیاسی به آن دادهاند، فکر کنید.