ميآموزند به خاطر ميآورند. اما همانطور كه ابزارهاي هوش مصنوعي مولد مانند ChatGPT در دسترس و قابل اعتمادتر مي شوند، روانشناسان نگران هستند كه پاسخ هاي اشتباهي كه ارائه مي دهند به عنوان حقيقت در ميان كاربران تلقي شود. تصحيح اين اطلاعات غلط بسيار دشوار است. اعتبار: آليسون سانگ از طريق Unsplash
دانش ممكن است قدرت باشد. اما اگر اطلاعاتي كه منجر به آن دانش مي شود اشتباه باشد چه؟
پاسخ به سلست كيد، استاديار روانشناسي در دانشگاه كاليفرنيا بركلي، ساده است: اين خطرناك و شايد نگران كننده ترين جنبه گسترش سريع هوش مصنوعي مولد است.
سيستم هايي مانند ChatGPT، Stable Diffusion و DALL-E در سراسر سياره موج زده اند. ميليونها نفر از اين پلتفرمها براي سرگرمي استفاده كردهاند، آنها را در جريان كار حرفهاي خود گنجاندهاند و براي پاسخهاي سريع در مورد موضوعات بياهميت و پيچيده به آنها مراجعه كردهاند.
اين رونق هوش مصنوعي هزاران دانشمند و رهبر فناوري را بر آن داشته است تا با استناد به آنچه كه آنها "خطرات عميق براي جامعه و بشريت" مي نامند، خواستار توقف در پيشرفت هاي آينده شوند. از اختلال شغلي گرفته تا مسابقه تسليحاتي هوش مصنوعي شركتي، مخاطرات زياد است.
كيد گفت، اما شايد خطرناكترين و ناديده گرفتهشدهترين خطر اين باشد كه چگونه تعصب نژادي و دروغهاي آشكاري كه سيستمهاي هوش مصنوعي منتشر ميكنند، ميتواند براي هميشه آنچه را كه ميدانيم و چگونه فكر ميكنيم تغيير دهد.
در ديدگاهي كه در 22 ژوئن در مجله Science منتشر شد، كيد و يكي از نويسندگان Abeba Birhane، يكي از همكاران ارشد قابل اعتماد هوش مصنوعي در بنياد موزيلا و استاديار علوم كامپيوتر در كالج ترينيتي دوبلين، توضيح ميدهند كه چگونه دههها تحقيق روانشناختي در مورد چگونگي يادگيري ما انجام شده است. مي تواند به ايجاد پل تفاهم در مورد آنچه در خطر است كمك كند."
كيد گفت: «وقتي مقامات شركت در مورد آسيبهاي احتمالي صحبت ميكنند، به طور عمده نمونههايي از نيروهاي شرور را ارائه ميدهند كه از اين فناوري براي بد استفاده ميكنند. "در اين بخش، ما در مورد آسيبهايي صحبت ميكنيم كه از استفاده مورد نظر از اين سيستمها رخ ميدهد. استفاده از اين سيستم به نيروي شيطاني براي توليد اطلاعات نادرست كه هدف آن فريب مردم است، نياز ندارد."
بركلي نيوز با كيد در مورد تفسير در Science ، وضعيت هوش مصنوعي و آنچه روانشناسي مي تواند در مورد خطرات ناشي از اين پلتفرم ها به ما بياموزد، صحبت كرد.
سلست كيد. اعتبار: سلست كيد
بركلي نيوز: شما شروع به تهيه پيش نويس اين قطعه در فوريه كرديد، قبل از اينكه بسياري خواستار توقف توسعه هوش مصنوعي شوند. چرا براي شما به عنوان يك روانشناس مهم بود كه توضيح دهيد چگونه هوش مصنوعي باورهاي انسان را تحريف مي كند؟
سلست كيد: به خوبي ثابت شده است كه اين مدل هاي هوش مصنوعي مواد مغرضانه و همچنين ساختگي توليد مي كنند. اين جديد نيست. چيزي كه شنيدن من و ساير افرادي كه در اين زمينه كار ميكنند نااميدكننده بود، پاسخهاي توسعهدهندگان بود: «بله، مشكلاتي وجود دارد». "تحريفها وجود دارد. جعلها و سوگيريها وجود دارد. اما ما به افرادي نياز داريم كه از مدلها استفاده كنند تا مشكلات را كشف كنند و سپس آنها را اصلاح كنيم."
مشكل اين منطق اين است كه بسياري از سوگيريها و ساختگيها ممكن است براي مردم قابل تشخيص نباشد - به خصوص اگر از سيستم براي كمك به تصميمگيري استفاده كنند.
در آن مرحله، اين سيستم ها اطلاعات را به شخص منتقل مي كنند. شايد اصلاح آن آسان نباشد.
در اين مقاله، شما چندين "اصول روانشناسي" را ذكر مي كنيد كه به توضيح اينكه چرا سوگيري و اطلاعات نادرست چيزهاي مهمي براي درك در هنگام يادگيري هستند كمك مي كند. منظورت چيه؟
ما مي دانيم كه افراد بر اساس عواملي كه از نظر آنها اعتماد به نفس دارند، سريعتر باورهاي قوي تري را شكل مي دهند. اين چت بات ها مانند مكالمه اي هستند كه در حال انجام آن هستيد، كه با خروجي هايي كه ممكن است هنگام جستجوي آنلاين با آن مواجه شويد بسيار متفاوت است. اين به دليل ماهيت ارائه اطلاعات بيشتر شبيه يك فرد است.
همچنين، اين سيستم ها انواع نشانگرهاي عدم قطعيت را كه يك عامل انساني توليد مي كند، توليد نمي كنند. هنگامي كه مردم در حال صحبت هستند، چيزهايي مانند، "من فكر مي كنم" يا "من كاملا مطمئن هستم" مي گويند. انواع و اقسام نشانگرهاي كلامي براي عدم اطمينان وجود دارد. خروجيهاي مدل هوش مصنوعي مولد چيزي در خود ندارند كه نشان دهنده عدم قطعيت باشد تا مردم بدانند كه پاسخها ممكن است قابل اعتماد نباشند. در واقع، هيچ چيزي در معماري اين مدل ها وجود ندارد كه بتوان از آن براي ايجاد سيگنال عدم قطعيت در خروجي ها استفاده كرد.
اين مدل ها نمي توانند واقعيت را از ساخت تشخيص دهند. اين يك مشكل است.
شما همچنين نوشتيد كه يك بازه زماني محدود وجود دارد كه هنگام يادگيري چيزهاي جديد، آماده تغيير افكار خود هستيم، درست است؟ بيشتر راجع بهش به من بگو.
اگر كسي از چيزي مانند ChatGPT براي جستجوي اطلاعات استفاده ميكند، اگر آن را ابزاري ميداند كه تمام دانش بشري را فهرستبندي يا فهرستبندي ميكند، براي ارائه اطلاعات خوب به آن متكي است. آنها در يك لحظه خاص از آن سيستم استفاده مي كنند، يعني زماني كه بسيار كنجكاو هستند.
زماني كه شما بسيار كنجكاو هستيد، زماني است كه بيشتر آماده تغيير عقيده خود هستيد. آن وقت است كه شما به دنبال اطلاعات هستيد. آن وقت است كه يادگيري اتفاق مي افتد. زمان جادويي است. اما اگر در آن لحظه به شما تعصبات و جعل داده مي شود، مشكل ساز است، به خصوص اگر آنها با اطمينان بيان شوند و به خصوص اگر تقويت شوند، اگر به طور مكرر رخ مي دهند. اين سيستم ها براي ارائه نوعي پاسخ جامع و دقيق طراحي شده اند. اين دقيقاً همان نوع اطلاعاتي است كه ما نگران آن هستيم كه اين فرصت يادگيري را ببندد.
به عبارت ديگر، شما دچار عدم اطمينان هستيد و پس از رفع آن، پنجره تغيير عقيده شما بسته مي شود. بعد از اين واقعيت باز كردن آن آسان نيست.
شما نوشتيد كه گروه هاي به حاشيه رانده شده از جمله افرادي هستند كه بيشتر تحت تأثير اين سوگيري ها قرار مي گيرند. گزارش هاي اخير نيز اين موضوع را با جزئيات كامل نشان داده است. چگونه مي بينيد كه اين يك مشكل ريشه دار تر مي شود؟
مردم به طور مداوم به آمار در جهان توجه مي كنند و اين آمارها را در ديدگاه خود از نحوه كاركرد چيزها در جهان ادغام مي كنند. اگر از Stable Diffusion، يك مدل هوش مصنوعي متن به تصوير، براي توليد تصاوير بر اساس مشاغل استفاده ميكنيد، و كليشهها و سوگيريهايي در آن وجود دارد، اين چيزي است كه بر ادراك شما تأثير ميگذارد.
مهم است كه بتوانيم در برابر اين سيستمهايي كه به اشتباه نشان ميدهند بيشتر جنايتكاران يا فروشندگان مواد مخدر افراد رنگين پوست هستند، محافظت كنيم.
ما در لحظه اي زندگي مي كنيم كه چيزهايي مانند اطلاعات نادرست و اطلاعات نادرست در همه جا وجود دارند. مردم ممكن است به سرعت هوش مصنوعي مولد را با بقيه نيمه حقيقت ها يا دروغ هايي كه قبلاً در فضاي مجازي مي چرخند، جمع كنند. شما مي گوييد در واقع نگران كننده تر است. چرا؟
اين واقعيت كه شما با اين سيستمها به گونهاي تعامل داريد كه گويي آنها عامل هستند، چيزي متفاوت است كه قبلاً نديدهايم. ساختگي ها نيز با آنچه در جستجو ديده ايم بسيار متفاوت است. هيچ چيزي در اين مدل ها وجود ندارد كه توانايي تشخيص واقعيت از داستان را داشته باشد.
تكنولوژي شگفت انگيز است. بعضي چيزها را واقعاً خيلي خوب انجام مي دهد. اما هيچ چيزي در اين فرآيند وجود ندارد كه حتي به دنبال صحت مطالب باشد. اين بسيار متفاوت از چيزي مانند الگوريتم جستجو است كه محتواي ايجاد شده توسط انسان را فهرستبندي و توصيه و سفارش ميدهد.
اين سيستمها همچنين محتويات اينترنت را به طور اساسي تغيير خواهند داد، تا كنون كمتر از آن توسط انسان ساخته شده است و مشكلات آبشاري پايين دستي ايجاد ميكند كه حتي الگوريتمهاي جستجوي سنتي را تحت تأثير قرار ميدهند. خروجيهاي مدل - و تمام ساختگيها و سوگيريهاي موجود در آنها - متعاقباً براي آموزش مدلهاي آينده استفاده ميشوند و اين مشكلات را تشديد ميكنند.
در شش ماه گذشته، اجتناب از اخبار مربوط به اين سيستم ها، از جمله سناريوهاي روز قيامت، دشوار بوده است. آيا اين هم بخشي از مشكلي است كه شما طرح مي كنيد؟
هياهوي زيادي در اطراف اين سيستم ها وجود دارد. پوششهاي رسانهاي زيادي وجود دارد كه توسط شركتها و افرادي كه منافع مالي دارند در ايجاد اين تصور كه اينها فناوريهاي بسيار پيچيده هستند، تحت فشار قرار ميگيرند.
اين تبليغات به خودي خود مي تواند در واقع آسيب بيشتري نسبت به سيستم ها داشته باشد.
به دليل آن تبليغات، مردم به اين سيستم ها مي آيند و انتظار دارند كه سطح هوش انساني داشته باشند. آنها ممكن است سريعتر به روشهايي كه دائميتر هستند تحت تأثير قرار گيرند تا زماني كه از حقيقت آگاه باشند، يعني اين سيستمها آنقدرها هم هوشمند نيستند.
شما مي نويسيد كه چگونه آن باورهاي نادرست از فردي به فرد ديگر براي هميشه منتقل مي شود. اين خيلي اميدوار كننده نيست.
اين يك لحن نااميد كننده است. من فكر مي كنم اگر اين سيستم ها به طور گسترده در بسياري از چيزهاي ديگر ادغام شوند، اين خطر است. اين فرصتي را براي مواجهه مكرر با همان نوع جعل و تعصب ايجاد مي كند. اگر بسياري از افراد در يك جمعيت دوباره از يك سيستم استفاده كنند، اين يك مشكل است. زيرا يكي از نقاط قوت واقعي انسان ها به عنوان يك گونه، توانايي ما در تكيه بر يكديگر و تفاوت در نظرات مردم است.
گاهي دانستن خيلي چيزها در دنيا واقعا سخت است. معني زندگي چيست؟ من بايد با زمانم در زمين چه كار كنم؟ اينها سوالات بزرگي هستند كه قابل درك نيستند. و به عنوان انسان، براي اين نوع سؤالات، از مردم نظرسنجي مي كنيم. ما به آنچه ديگران فكر مي كنند توجه مي كنيم. ما در حال به روز رساني هستيم زيرا با طيف گسترده اي از انواع مختلف نظرات روبرو مي شويم.
اين واقعيت كه وقتي اطلاعات را به اين روش جمعآوري ميكنيد، در شرايطي كه سر و صدا وجود دارد، كه در آن نظرات مختلف وجود دارد، كار را سختتر ميكند. كمتر رضايت بخش است زيرا شما آن تكه كوچكي از اطلاعاتي را كه به دنبال آن هستيد به دست نمي آوريد. شما فقط يك پاسخ ساده دريافت نمي كنيد.
اما اين در زمينه چيزهايي كه دانستن آنها دشوار است يا چيزهايي كه در حال تغيير هستند خوب است. اگر آن قطعه كوچك رضايتبخش را به دست نياوريد، كنجكاو باقي ميمانيد. و اين بدان معني است كه شما براي ادغام اطلاعات جديد در طول زمان، ذهن باز باقي ميمانيد.
شما در مسيري رو به جلو پيشنهادهايي ارائه مي دهيد. آنها چه هستند؟
يكي از آنها منابعي براي توسعه موادي است كه سياستگذاران و مردم را در مورد اينكه اين سيستم ها چه هستند و چه نيستند آگاه مي كند. اين بايد اتفاق بيفتد و اين ماموريت بايد توسط افرادي هدايت شود كه علاقه مالي به عملكرد خوب اين مدل ها ندارند.
ما همچنين به منابعي فوري نياز داريم تا بررسي كنيم كه چگونه چيزهايي مانند درك شما از اعتماد به يك مدل بر ميزان تحريف باورهاي شما و ميزان انتقال سوگيري به شما تأثير ميگذارد. ما مي دانيم كه به طور كلي از دهه ها تحقيق روانشناسي چه انتظاري داريم.
اين جنبه از آن، اين واقعيت كه مردم تحت تأثير مطالبي هستند كه با آن مواجه مي شوند، جديد نيست، اما متغيرهاي زيادي وجود دارد كه ما آنها را از دست مي دهيم. پس مردم در مورد اين مدل ها چطور هستند؟ تعامل آنها با اين مدل ها چگونه است؟ اينها چيزهايي هستند كه قابل مطالعه هستند و بايد به صورت تجربي مورد مطالعه قرار گيرند تا بتوانيم كارآمدترين اقدام را براي نحوه كاهش خطرات ايجاد كنيم.
شما ماه ها پيش در مورد اين قطعه فكر مي كرديد، قبل از اينكه برخي افراد بيرون آمدند و خواستار توقف در توسعه اين ابزارها شدند. آيا خود را فردي ميدانيد كه فكر ميكند بايد يك مكث وجود داشته باشد؟
اين يك سوال پيچيده است. فكر نمي كنم بخواهم دقيقاً در آن قالب به آن پاسخ دهم. با اين حال من چيزي خواهم گفت. برخي از مضامين قطعه علم هم در كارهاي قبلي من و هم آببه برهانه ظاهر شد. ما سابقه اي طولاني در نشان دادن نگراني نسبت به سوگيري ها در سيستم ها و راه هايي داريم كه ممكن است در بين افراد گسترش يابد و بر افراد تأثير بگذارد.
هياهو در مورد هوش مصنوعي مولد در حال حاضر اين مسائل را بسيار فوري تر مي كند. و اين تحريف ها را به طور بالقوه بدتر مي كند، زيرا، دوباره، مردم را به اين باور مي رساند كه اين چيزي است كه واقعا هوشمندانه است. اين ممكن است شما را به اين باور برساند كه اين چيزي است كه مي توان به آن اعتماد كرد.
من خواستار توقف در تبليغات تبليغاتي هستم. اين مهمترين و فوري ترين چيز است.
برچسب:
،
ادامه مطلب
بازدید: