سايت تبليغات علفو پلاس سايت تبليغات علفو پلاس .

سايت تبليغات علفو پلاس

پرسش و پاسخ: روانشناسي در مورد سوگيري و مشكل اطلاعات نادرست هوش مصنوعي چه چيزي مي تواند به ما بياموزد؟

 مي‌آموزند به خاطر مي‌آورند. اما همانطور كه ابزارهاي هوش مصنوعي مولد مانند ChatGPT در دسترس و قابل اعتمادتر مي شوند، روانشناسان نگران هستند كه پاسخ هاي اشتباهي كه ارائه مي دهند به عنوان حقيقت در ميان كاربران تلقي شود. تصحيح اين اطلاعات غلط بسيار دشوار است. اعتبار: آليسون سانگ از طريق Unsplash

دانش ممكن است قدرت باشد. اما اگر اطلاعاتي كه منجر به آن دانش مي شود اشتباه باشد چه؟

 

پاسخ به سلست كيد، استاديار روانشناسي در دانشگاه كاليفرنيا بركلي، ساده است: اين خطرناك و شايد نگران كننده ترين جنبه گسترش سريع هوش مصنوعي مولد است.

سيستم هايي مانند ChatGPT، Stable Diffusion و DALL-E در سراسر سياره موج زده اند. ميليون‌ها نفر از اين پلت‌فرم‌ها براي سرگرمي استفاده كرده‌اند، آن‌ها را در جريان كار حرفه‌اي خود گنجانده‌اند و براي پاسخ‌هاي سريع در مورد موضوعات بي‌اهميت و پيچيده به آنها مراجعه كرده‌اند.

اين رونق هوش مصنوعي هزاران دانشمند و رهبر فناوري را بر آن داشته است تا با استناد به آنچه كه آنها "خطرات عميق براي جامعه و بشريت" مي نامند، خواستار توقف در پيشرفت هاي آينده شوند. از اختلال شغلي گرفته تا مسابقه تسليحاتي هوش مصنوعي شركتي، مخاطرات زياد است.

كيد گفت، اما شايد خطرناك‌ترين و ناديده گرفته‌شده‌ترين خطر اين باشد كه چگونه  

در ديدگاهي كه در 22 ژوئن در مجله Science منتشر شد، كيد و يكي از نويسندگان Abeba Birhane، يكي از همكاران ارشد قابل اعتماد هوش مصنوعي در بنياد موزيلا و استاديار علوم كامپيوتر در كالج ترينيتي دوبلين، توضيح مي‌دهند كه چگونه دهه‌ها تحقيق روان‌شناختي در مورد چگونگي يادگيري ما انجام شده است. مي تواند به ايجاد پل تفاهم در مورد آنچه در خطر است كمك كند."

كيد گفت: «وقتي مقامات شركت در مورد "در اين بخش، ما در مورد آسيب‌هايي صحبت مي‌كنيم كه از استفاده مورد نظر از اين سيستم‌ها رخ مي‌دهد. استفاده از اين سيستم به نيروي شيطاني براي توليد اطلاعات نادرست كه هدف آن فريب مردم است، نياز ندارد."

بركلي نيوز با كيد در مورد تفسير در Science ، وضعيت هوش مصنوعي و آنچه روانشناسي مي تواند در مورد خطرات ناشي از اين پلتفرم ها به ما بياموزد، صحبت كرد.

روانشناسي در مورد سوگيري و مشكل اطلاعات نادرست هوش مصنوعي چه چيزي مي تواند به ما بياموزد؟سلست كيد. اعتبار: سلست كيد

بركلي نيوز: شما شروع به تهيه پيش نويس اين قطعه در فوريه كرديد، قبل از اينكه بسياري خواستار توقف توسعه هوش مصنوعي شوند. چرا براي شما به عنوان يك روانشناس مهم بود كه توضيح دهيد چگونه هوش مصنوعي باورهاي انسان را تحريف مي كند؟

سلست كيد: به خوبي ثابت شده است كه اين مدل هاي هوش مصنوعي مواد مغرضانه و همچنين ساختگي توليد مي كنند. اين جديد نيست. چيزي كه شنيدن من و ساير افرادي كه در اين زمينه كار مي‌كنند نااميدكننده بود، پاسخ‌هاي توسعه‌دهندگان بود: «بله، مشكلاتي وجود دارد». "تحريف‌ها وجود دارد. جعل‌ها و سوگيري‌ها وجود دارد. اما ما به افرادي نياز داريم كه از مدل‌ها استفاده كنند تا مشكلات را كشف كنند و سپس آنها را اصلاح كنيم."

مشكل اين منطق اين است كه بسياري از سوگيري‌ها و ساختگي‌ها ممكن است براي مردم قابل تشخيص نباشد - به خصوص اگر از سيستم براي كمك به تصميم‌گيري استفاده كنند.

در آن مرحله، اين سيستم ها اطلاعات را به شخص منتقل مي كنند. شايد اصلاح آن آسان نباشد.

در اين مقاله، شما چندين "اصول روانشناسي" را ذكر مي كنيد كه به توضيح اينكه چرا سوگيري و اطلاعات نادرست چيزهاي مهمي براي درك در هنگام يادگيري هستند كمك مي كند. منظورت چيه؟

ما مي دانيم كه افراد بر اساس عواملي كه از نظر آنها اعتماد به نفس دارند، سريعتر باورهاي قوي تري را شكل مي دهند. اين چت بات ها مانند مكالمه اي هستند كه در حال انجام آن هستيد، كه با خروجي هايي كه ممكن است هنگام جستجوي آنلاين با آن مواجه شويد بسيار متفاوت است. اين به دليل ماهيت ارائه اطلاعات بيشتر شبيه يك فرد است.

همچنين، اين سيستم ها انواع نشانگرهاي عدم قطعيت را كه يك عامل انساني توليد مي كند، توليد نمي كنند. هنگامي كه مردم در حال صحبت هستند، چيزهايي مانند، "من فكر مي كنم" يا "من كاملا مطمئن هستم" مي گويند. انواع و اقسام نشانگرهاي كلامي براي عدم اطمينان وجود دارد. خروجي‌هاي مدل هوش مصنوعي مولد چيزي در خود ندارند كه نشان دهنده عدم قطعيت باشد تا مردم بدانند كه پاسخ‌ها ممكن است قابل اعتماد نباشند. در واقع، هيچ چيزي در معماري اين مدل ها وجود ندارد كه بتوان از آن براي ايجاد سيگنال عدم قطعيت در خروجي ها استفاده كرد.

اين مدل ها نمي توانند واقعيت را از ساخت تشخيص دهند. اين يك مشكل است.

شما همچنين نوشتيد كه يك بازه زماني محدود وجود دارد كه هنگام يادگيري چيزهاي جديد، آماده تغيير افكار خود هستيم، درست است؟ بيشتر راجع بهش به من بگو.

اگر كسي از چيزي مانند ChatGPT براي جستجوي اطلاعات استفاده مي‌كند، اگر آن را ابزاري مي‌داند كه تمام دانش بشري را فهرست‌بندي يا فهرست‌بندي مي‌كند، براي ارائه اطلاعات خوب به آن متكي است. آنها در يك لحظه خاص از آن سيستم استفاده مي كنند، يعني زماني كه بسيار كنجكاو هستند.

زماني كه شما بسيار كنجكاو هستيد، زماني است كه بيشتر آماده تغيير عقيده خود هستيد. آن وقت است كه شما به دنبال اطلاعات هستيد. آن وقت است كه يادگيري اتفاق مي افتد. زمان جادويي است. اما اگر در آن لحظه به شما تعصبات و جعل داده مي شود، مشكل ساز است، به خصوص اگر آنها با اطمينان بيان شوند و به خصوص اگر تقويت شوند، اگر به طور مكرر رخ مي دهند. اين سيستم ها براي ارائه نوعي پاسخ جامع و دقيق طراحي شده اند. اين دقيقاً همان نوع اطلاعاتي است كه ما نگران آن هستيم كه اين فرصت يادگيري را ببندد.

به عبارت ديگر، شما دچار عدم اطمينان هستيد و پس از رفع آن، پنجره تغيير عقيده شما بسته مي شود. بعد از اين واقعيت باز كردن آن آسان نيست.

شما نوشتيد كه گروه هاي به حاشيه رانده شده از جمله افرادي هستند كه بيشتر تحت تأثير اين سوگيري ها قرار مي گيرند. گزارش هاي اخير نيز اين موضوع را با جزئيات كامل نشان داده است. چگونه مي بينيد كه اين يك مشكل ريشه دار تر مي شود؟

مردم به طور مداوم به آمار در جهان توجه مي كنند و اين آمارها را در ديدگاه خود از نحوه كاركرد چيزها در جهان ادغام مي كنند. اگر از Stable Diffusion، يك مدل هوش مصنوعي متن به تصوير، براي توليد تصاوير بر اساس مشاغل استفاده مي‌كنيد، و كليشه‌ها و سوگيري‌هايي در آن وجود دارد، اين چيزي است كه بر ادراك شما تأثير مي‌گذارد.

مهم است كه بتوانيم در برابر اين سيستم‌هايي كه به اشتباه نشان مي‌دهند بيشتر جنايتكاران يا فروشندگان مواد مخدر افراد رنگين پوست هستند، محافظت كنيم.

ما در لحظه اي زندگي مي كنيم كه چيزهايي مانند اطلاعات نادرست و اطلاعات نادرست در همه جا وجود دارند. مردم ممكن است به سرعت هوش مصنوعي مولد را با بقيه نيمه حقيقت ها يا دروغ هايي كه قبلاً در فضاي مجازي مي چرخند، جمع كنند. شما مي گوييد در واقع نگران كننده تر است. چرا؟

اين واقعيت كه شما با اين سيستم‌ها به گونه‌اي تعامل داريد كه گويي آنها عامل هستند، چيزي متفاوت است كه قبلاً نديده‌ايم. ساختگي ها نيز با آنچه در جستجو ديده ايم بسيار متفاوت است. هيچ چيزي در اين مدل ها وجود ندارد كه توانايي تشخيص واقعيت از داستان را داشته باشد.

تكنولوژي شگفت انگيز است. بعضي چيزها را واقعاً خيلي خوب انجام مي دهد. اما هيچ چيزي در اين فرآيند وجود ندارد كه حتي به دنبال صحت مطالب باشد. اين بسيار متفاوت از چيزي مانند الگوريتم جستجو است كه محتواي ايجاد شده توسط انسان را فهرست‌بندي و توصيه و سفارش مي‌دهد.

اين سيستم‌ها همچنين محتويات اينترنت را به طور اساسي تغيير خواهند داد، تا كنون كمتر از آن توسط انسان ساخته شده است و مشكلات آبشاري پايين دستي ايجاد مي‌كند كه حتي الگوريتم‌هاي جستجوي سنتي را تحت تأثير قرار مي‌دهند. خروجي‌هاي مدل - و تمام ساختگي‌ها و سوگيري‌هاي موجود در آنها - متعاقباً براي آموزش مدل‌هاي آينده استفاده مي‌شوند و اين مشكلات را تشديد مي‌كنند.

در شش ماه گذشته، اجتناب از اخبار مربوط به اين سيستم ها، از جمله سناريوهاي روز قيامت، دشوار بوده است. آيا اين هم بخشي از مشكلي است كه شما طرح مي كنيد؟

هياهوي زيادي در اطراف اين سيستم ها وجود دارد. پوشش‌هاي رسانه‌اي زيادي وجود دارد كه توسط شركت‌ها و افرادي كه منافع مالي دارند در ايجاد اين تصور كه اينها فناوري‌هاي بسيار پيچيده هستند، تحت فشار قرار مي‌گيرند.

اين تبليغات به خودي خود مي تواند در واقع آسيب بيشتري نسبت به سيستم ها داشته باشد.

به دليل آن تبليغات، مردم به اين سيستم ها مي آيند و انتظار دارند كه سطح هوش انساني داشته باشند. آن‌ها ممكن است سريع‌تر به روش‌هايي كه دائمي‌تر هستند تحت تأثير قرار گيرند تا زماني كه از حقيقت آگاه باشند، يعني اين سيستم‌ها آنقدرها هم هوشمند نيستند.

شما مي نويسيد كه چگونه آن باورهاي نادرست از فردي به فرد ديگر براي هميشه منتقل مي شود. اين خيلي اميدوار كننده نيست.

اين يك لحن نااميد كننده است. من فكر مي كنم اگر اين سيستم ها به طور گسترده در بسياري از چيزهاي ديگر ادغام شوند، اين خطر است. اين فرصتي را براي مواجهه مكرر با همان نوع جعل و تعصب ايجاد مي كند. اگر بسياري از افراد در يك جمعيت دوباره از يك سيستم استفاده كنند، اين يك مشكل است. زيرا يكي از نقاط قوت واقعي انسان ها به عنوان يك گونه، توانايي ما در تكيه بر يكديگر و تفاوت در نظرات مردم است.

گاهي دانستن خيلي چيزها در دنيا واقعا سخت است. معني زندگي چيست؟ من بايد با زمانم در زمين چه كار كنم؟ اينها سوالات بزرگي هستند كه قابل درك نيستند. و به عنوان انسان، براي اين نوع سؤالات، از مردم نظرسنجي مي كنيم. ما به آنچه ديگران فكر مي كنند توجه مي كنيم. ما در حال به روز رساني هستيم زيرا با طيف گسترده اي از انواع مختلف نظرات روبرو مي شويم.

اين واقعيت كه وقتي اطلاعات را به اين روش جمع‌آوري مي‌كنيد، در شرايطي كه سر و صدا وجود دارد، كه در آن نظرات مختلف وجود دارد، كار را سخت‌تر مي‌كند. كمتر رضايت بخش است زيرا شما آن تكه كوچكي از اطلاعاتي را كه به دنبال آن هستيد به دست نمي آوريد. شما فقط يك پاسخ ساده دريافت نمي كنيد.

اما اين در زمينه چيزهايي كه دانستن آنها دشوار است يا چيزهايي كه در حال تغيير هستند خوب است. اگر آن قطعه كوچك رضايت‌بخش را به دست نياوريد، كنجكاو باقي مي‌مانيد. و اين بدان معني است كه شما براي ادغام اطلاعات جديد در طول زمان، ذهن باز باقي مي‌مانيد.

شما در مسيري رو به جلو پيشنهادهايي ارائه مي دهيد. آنها چه هستند؟

يكي از آنها منابعي براي توسعه موادي است كه سياستگذاران و مردم را در مورد اينكه اين سيستم ها چه هستند و چه نيستند آگاه مي كند. اين بايد اتفاق بيفتد و اين ماموريت بايد توسط افرادي هدايت شود كه علاقه مالي به عملكرد خوب اين مدل ها ندارند.

ما همچنين به منابعي فوري نياز داريم تا بررسي كنيم كه چگونه چيزهايي مانند درك شما از اعتماد به يك مدل بر ميزان تحريف باورهاي شما و ميزان انتقال سوگيري به شما تأثير مي‌گذارد. ما مي دانيم كه به طور كلي از دهه ها تحقيق روانشناسي چه انتظاري داريم.

اين جنبه از آن، اين واقعيت كه مردم تحت تأثير مطالبي هستند كه با آن مواجه مي شوند، جديد نيست، اما متغيرهاي زيادي وجود دارد كه ما آنها را از دست مي دهيم. پس مردم در مورد اين مدل ها چطور هستند؟ تعامل آنها با اين مدل ها چگونه است؟ اينها چيزهايي هستند كه قابل مطالعه هستند و بايد به صورت تجربي مورد مطالعه قرار گيرند تا بتوانيم كارآمدترين اقدام را براي نحوه كاهش خطرات ايجاد كنيم.

شما ماه ها پيش در مورد اين قطعه فكر مي كرديد، قبل از اينكه برخي افراد بيرون آمدند و خواستار توقف در توسعه اين ابزارها شدند. آيا خود را فردي مي‌دانيد كه فكر مي‌كند بايد يك مكث وجود داشته باشد؟

اين يك سوال پيچيده است. فكر نمي كنم بخواهم دقيقاً در آن قالب به آن پاسخ دهم. با اين حال من چيزي خواهم گفت. برخي از مضامين قطعه علم هم در كارهاي قبلي من و هم آببه برهانه ظاهر شد. ما سابقه اي طولاني در نشان دادن نگراني نسبت به سوگيري ها در سيستم ها و راه هايي داريم كه ممكن است در بين افراد گسترش يابد و بر افراد تأثير بگذارد.

هياهو در مورد هوش مصنوعي مولد در حال حاضر اين مسائل را بسيار فوري تر مي كند. و اين تحريف ها را به طور بالقوه بدتر مي كند، زيرا، دوباره، مردم را به اين باور مي رساند كه اين چيزي است كه واقعا هوشمندانه است. اين ممكن است شما را به اين باور برساند كه اين چيزي است كه مي توان به آن اعتماد كرد.

من خواستار توقف در تبليغات تبليغاتي هستم. اين مهمترين و فوري ترين چيز است.


برچسب: ،
امتیاز:
 
بازدید:
+ نوشته شده: ۸ تير ۱۴۰۲ساعت: ۰۳:۰۰:۱۴ توسط:عرفان موضوع:

{COMMENTS}
ارسال نظر
نام :
ایمیل :
سایت :
آواتار :
پیام :
خصوصی :
کد امنیتی :