آيا هوش مصنوعي واقعاً بشريت را نابود مي كند؟
هشدارها از همه زوايا مي آيند: هوش مصنوعي خطري وجودي براي بشريت به همراه دارد و قبل از اينكه خيلي دير شود بايد در غل و زنجير قرار گيرد.
اما اين سناريوهاي فاجعه چيست و چگونه ماشين ها قرار است بشريت را از بين ببرند؟
گيره هاي عذاب
اكثر سناريوهاي فاجعه از يك مكان شروع ميشوند: ماشينها از ظرفيتهاي انساني پيشي ميگيرند، از كنترل انسان فرار ميكنند و از خاموش شدن خودداري ميكنند.
يوشوا بنجيو، استاد هوش مصنوعي، در رويدادي در اين ماه گفت: زماني كه ماشينهايي داريم كه هدف خود را حفظ ميكنند، با مشكل مواجه ميشويم.
اما از آنجايي كه اين ماشينها هنوز وجود ندارند، تصور اينكه چگونه ميتوانند بشريت را نابود كنند، اغلب به فلسفه و داستانهاي علمي تخيلي واگذار ميشود .
فيلسوف نيك بوستروم در مورد يك "انفجار هوشمند" نوشته است كه او مي گويد زماني اتفاق مي افتد كه ماشين هاي فوق هوشمند شروع به طراحي ماشين هاي خود كنند.
او اين ايده را با داستان يك هوش مصنوعي فوق هوشمند در يك كارخانه گيره كاغذ به تصوير كشيد.افزايش مشتري
هدف نهايي به حداكثر رساندن خروجي گيره كاغذ به هوش مصنوعي داده شده است و بنابراين "ابتدا زمين و سپس قطعات بزرگي از جهان قابل مشاهده را به گيره كاغذ تبديل مي كند".
ايده هاي بوستروم توسط بسياري به عنوان علمي تخيلي رد شده است، به ويژه به اين دليل كه او به طور جداگانه استدلال كرده است كه انسانيت يك شبيه سازي كامپيوتري است و از نظريه هاي نزديك به اصلاح نژادي حمايت مي كند.
نيك بوستروم، فيلسوف، ايده يك هوش مصنوعي فوقهوشمند را در سر داشت كه زمين را به گيره كاغذ تبديل ميكرد.او همچنين اخيراً پس از افشاي پيام نژادپرستانه اي كه در دهه 1990 ارسال كرده بود، عذرخواهي كرد.
با اين حال، افكار او در مورد هوش مصنوعي بسيار تأثيرگذار بوده و الهام بخش الون ماسك و پروفسور استيون هاوكينگ بوده است.
نابودگر
اگر قرار باشد ماشين هاي فوق هوشمند بشريت را نابود كنند، مطمئناً به شكل فيزيكي نياز دارند.
سايبورگ چشم قرمز آرنولد شوارتزنگر كه از آينده براي پايان دادن به مقاومت انساني توسط يك هوش مصنوعي در فيلم "نابودگر" فرستاده شده است، تصويري اغوا كننده به ويژه براي رسانه ها به نمايش گذاشته است.
اما كارشناسان اين ايده را رد كرده اند.
گروه كمپين Stop Killer Robots در گزارشي در سال 2021 نوشت: "اين مفهوم علمي تخيلي بعيد است در دهه هاي آينده به واقعيت تبديل شود."
با اين حال، اين گروه هشدار داده است كه دادن قدرت به ماشين ها براي تصميم گيري در مورد زندگي و مرگ يك خطر وجودي است.
كرستين داوتنهان، متخصص ربات، از دانشگاه واترلو در كانادا، اين ترس ها را كم اهميت جلوه داد.
استوارت راسل، محقق هوش مصنوعي، معتقد است رباتهاي قاتل واقعي كوچك، معلق در هوا هستند و به صورت دسته جمعي عرضه ميشوند.او به خبرگزاري فرانسه گفت كه بعيد است كه هوش مصنوعي به ماشينها قابليتهاي استدلالي بالاتري بدهد يا آنها را با تمايل به كشتن همه انسانها آغشته كند.
او گفت: "روبات ها شر نيستند"، اگرچه او اذعان داشت كه برنامه نويسان مي توانند آنها را وادار به انجام كارهاي شيطاني كنند.
مواد شيميايي مرگبارتر
در يك سناريوي علمي تخيلي كمتر آشكار، «بازيگران بد» از هوش مصنوعي براي ايجاد سموم يا ويروسهاي جديد و انتشار آنها در جهان استفاده ميكنند.
مدل هاي زبان بزرگ مانند GPT-3 كه براي ايجاد ChatGPT استفاده شد، به نظر مي رسد در اختراع عوامل شيميايي جديد وحشتناك بسيار خوب هستند.
گروهي از دانشمندان كه از هوش مصنوعي براي كمك به كشف داروهاي جديد استفاده مي كردند، آزمايشي را انجام دادند كه در آن هوش مصنوعي خود را براي جستجوي مولكول هاي مضر تغيير دادند.
همانطور كه در مجله Nature Machine Intelligence گزارش شده است، آنها موفق شدند 40000 عامل بالقوه سمي را در كمتر از شش ساعت توليد كنند.
جوآنا برايسون، كارشناس هوش مصنوعي از مدرسه هرتي در برلين، گفت كه ميتواند تصور كند كه كسي راهي براي انتشار سريعتر سمي مانند سياه زخم پيدا كند.
او به خبرگزاري فرانسه گفت: «اما اين يك تهديد وجودي نيست. "اين فقط يك سلاح وحشتناك و وحشتناك است."
استيون هاوكينگ در سال 2014 استدلال كرد كه در مقطعي در آينده ماشين هاي فوق هوشمند از توانايي هاي انسان پيشي خواهند گرفت و در نهايت گونه ما ديگر قادر به رقابت نخواهد بود.گونه سبقت گرفت
قوانين هاليوود حكم مي كند كه بلاياي دوراني بايد ناگهاني، عظيم و دراماتيك باشند – اما اگر پايان بشريت كند، آرام و قطعي نبود چه؟افزايش مشتري
فيلسوف هاو پرايس در يك ويديوي تبليغاتي براي مركز مطالعات خطر وجودي دانشگاه كمبريج مي گويد: «در تاريك ترين پايان ممكن است گونه ما بدون هيچ جانشيني به پايان برسد.
اما او گفت كه «احتمالات كمتر تيرهتري» وجود دارد كه در آن انسانهايي كه با فناوري پيشرفته تقويت شدهاند بتوانند زنده بمانند.
او گفت: «گونههاي صرفاً بيولوژيكي در نهايت به پايان ميرسند، زيرا هيچ انساني در اطراف وجود ندارد كه به اين فناوري توانمند دسترسي نداشته باشد».
آخرالزمان تصور شده اغلب در قالب اصطلاحات تكاملي تنظيم مي شود.
استيون هاوكينگ در سال 2014 استدلال كرد كه در نهايت گونه ما ديگر قادر به رقابت با ماشينهاي هوش مصنوعي نخواهد بود و به بيبيسي گفت كه ميتواند "پايان نسل بشر" باشد.
جفري هينتون، كه اخيراً براي گوگل، كار خود را صرف ساخت ماشينهايي شبيه به مغز انسان كرده است، با عبارات مشابهي صحبت ميكند كه «ابر هوش» به سادگي از انسانها سبقت ميگيرد.
او اخيراً به شبكه تلويزيوني آمريكايي PBS گفت كه ممكن است "بشريت فقط يك مرحله گذرا در تكامل اطلاعات باشد".
© 2023 AFP
برچسب: ،
ادامه مطلب













