سايت تبليغات علفو پلاس سايت تبليغات علفو پلاس .

سايت تبليغات علفو پلاس

آيا هوش مصنوعي واقعاً بشريت را نابود مي كند؟

گروه Stop Killer Robots به صراحت سناريوي ترميناتور را رد كرده است.

هشدارها از همه زوايا مي آيند: هوش مصنوعي خطري وجودي براي بشريت به همراه دارد و قبل از اينكه خيلي دير شود بايد در غل و زنجير قرار گيرد.

 

اما اين سناريوهاي فاجعه چيست و چگونه ماشين ها قرار است بشريت را از بين ببرند؟

گيره هاي عذاب

اكثر سناريوهاي فاجعه از يك مكان شروع مي‌شوند: ماشين‌ها از ظرفيت‌هاي انساني پيشي مي‌گيرند، از كنترل انسان فرار مي‌كنند و از خاموش شدن خودداري مي‌كنند.

يوشوا بنجيو، استاد هوش مصنوعي، در رويدادي در اين ماه گفت: زماني كه ماشين‌هايي داريم كه هدف خود را حفظ مي‌كنند، با مشكل مواجه مي‌شويم.

اما از آنجايي كه اين ماشين‌ها هنوز وجود ندارند، تصور اينكه چگونه مي‌توانند بشريت را نابود كنند، اغلب به فلسفه و  واگذار مي‌شود .

فيلسوف نيك بوستروم در مورد يك "انفجار هوشمند" نوشته است كه او مي گويد زماني اتفاق مي افتد كه ماشين هاي فوق هوشمند شروع به طراحي ماشين هاي خود كنند.

او اين ايده را با داستان يك هوش مصنوعي فوق هوشمند در يك كارخانه گيره كاغذ به تصوير كشيد.افزايش مشتري

هدف نهايي به حداكثر رساندن خروجي گيره كاغذ به هوش مصنوعي داده شده است و بنابراين "ابتدا زمين و سپس قطعات بزرگي از جهان قابل مشاهده را به گيره كاغذ تبديل مي كند".

ايده هاي بوستروم توسط بسياري به عنوان علمي تخيلي رد شده است، به ويژه به اين دليل كه او به طور جداگانه استدلال كرده است كه انسانيت يك شبيه سازي كامپيوتري است و از نظريه هاي نزديك به اصلاح نژادي حمايت مي كند.

فيلسوف نيك بوستروم ايده يك هوش مصنوعي فوق هوشمند را در سر داشت كه زمين را به گيره كاغذ تبديل مي كرد.نيك بوستروم، فيلسوف، ايده يك هوش مصنوعي فوق‌هوشمند را در سر داشت كه زمين را به گيره كاغذ تبديل مي‌كرد.

او همچنين اخيراً پس از افشاي پيام نژادپرستانه اي كه در دهه 1990 ارسال كرده بود، عذرخواهي كرد.

با اين حال، افكار او در مورد هوش مصنوعي بسيار تأثيرگذار بوده و الهام بخش الون ماسك و پروفسور استيون هاوكينگ بوده است.

نابودگر

اگر قرار باشد ماشين هاي فوق هوشمند بشريت را نابود كنند، مطمئناً به شكل فيزيكي نياز دارند.

سايبورگ چشم قرمز آرنولد شوارتزنگر كه از آينده براي پايان دادن به مقاومت انساني توسط يك هوش مصنوعي در فيلم "نابودگر" فرستاده شده است، تصويري اغوا كننده به ويژه براي رسانه ها به نمايش گذاشته است.

اما كارشناسان اين ايده را رد كرده اند.

گروه كمپين Stop Killer Robots در گزارشي در سال 2021 نوشت: "اين مفهوم علمي تخيلي بعيد است در دهه هاي آينده به واقعيت تبديل شود."

با اين حال، اين گروه هشدار داده است كه دادن قدرت به ماشين ها براي تصميم گيري در مورد زندگي و مرگ يك خطر وجودي است.

كرستين داوتنهان، متخصص ربات، از دانشگاه واترلو در كانادا، اين ترس ها را كم اهميت جلوه داد.

استوارت راسل، محقق هوش مصنوعي، معتقد است كه روبات‌هاي قاتل واقعي كوچك، هوابرد و به صورت دسته جمعي خواهند بود.استوارت راسل، محقق هوش مصنوعي، معتقد است ربات‌هاي قاتل واقعي كوچك، معلق در هوا هستند و به صورت دسته جمعي عرضه مي‌شوند.

او به خبرگزاري فرانسه گفت كه بعيد است كه هوش مصنوعي به ماشين‌ها قابليت‌هاي استدلالي بالاتري بدهد يا آنها را با تمايل به كشتن همه انسان‌ها آغشته كند.

او گفت: "روبات ها شر نيستند"، اگرچه او اذعان داشت كه برنامه نويسان مي توانند آنها را وادار به انجام كارهاي شيطاني كنند.

مواد شيميايي مرگبارتر

در يك سناريوي علمي تخيلي كمتر آشكار، «بازيگران بد» از هوش مصنوعي براي ايجاد سموم يا ويروس‌هاي جديد و انتشار آنها در جهان استفاده مي‌كنند.

مدل هاي زبان بزرگ مانند GPT-3 كه براي ايجاد ChatGPT استفاده شد، به نظر مي رسد در اختراع عوامل شيميايي جديد وحشتناك بسيار خوب هستند.

گروهي از دانشمندان كه از هوش مصنوعي براي كمك به كشف داروهاي جديد استفاده مي كردند، آزمايشي را انجام دادند كه در آن هوش مصنوعي خود را براي جستجوي مولكول هاي مضر تغيير دادند.

همانطور كه در مجله Nature Machine Intelligence گزارش شده است، آنها موفق شدند 40000 عامل بالقوه سمي را در كمتر از شش ساعت توليد كنند.

جوآنا برايسون، كارشناس هوش مصنوعي از مدرسه هرتي در برلين، گفت كه مي‌تواند تصور كند كه كسي راهي براي انتشار سريع‌تر سمي مانند سياه زخم پيدا كند.

او به خبرگزاري فرانسه گفت: «اما اين يك تهديد وجودي نيست. "اين فقط يك سلاح وحشتناك و وحشتناك است."

استيون هاوكينگ در سال 2014 استدلال كرد كه در مقطعي در آينده ماشين هاي فوق هوشمند از توانايي هاي انسان و نهايتاً پيشي خواهند گرفت.استيون هاوكينگ در سال 2014 استدلال كرد كه در مقطعي در آينده ماشين هاي فوق هوشمند از توانايي هاي انسان پيشي خواهند گرفت و در نهايت گونه ما ديگر قادر به رقابت نخواهد بود.

گونه سبقت گرفت

قوانين هاليوود حكم مي كند كه بلاياي دوراني بايد ناگهاني، عظيم و دراماتيك باشند – اما اگر پايان بشريت كند، آرام و قطعي نبود چه؟افزايش مشتري

فيلسوف هاو پرايس در يك ويديوي تبليغاتي براي مركز مطالعات خطر وجودي دانشگاه كمبريج مي گويد: «در تاريك ترين پايان ممكن است گونه ما بدون هيچ جانشيني به پايان برسد.

اما او گفت كه «احتمالات كمتر تيره‌تري» وجود دارد كه در آن انسان‌هايي كه با فناوري پيشرفته تقويت شده‌اند بتوانند زنده بمانند.

او گفت: «گونه‌هاي صرفاً بيولوژيكي در نهايت به پايان مي‌رسند، زيرا هيچ انساني در اطراف وجود ندارد كه به اين فناوري توانمند دسترسي نداشته باشد».

آخرالزمان تصور شده اغلب در قالب اصطلاحات تكاملي تنظيم مي شود.

استيون هاوكينگ در سال 2014 استدلال كرد كه در نهايت گونه ما ديگر قادر به رقابت با ماشين‌هاي هوش مصنوعي نخواهد بود و به بي‌بي‌سي گفت كه مي‌تواند "پايان نسل بشر" باشد.

جفري هينتون، كه اخيراً براي گوگل، كار خود را صرف ساخت  

او اخيراً به شبكه تلويزيوني آمريكايي PBS گفت كه ممكن است "بشريت فقط يك مرحله گذرا در تكامل اطلاعات باشد".

© 2023 AFP

 


برچسب: ،
امتیاز:
 
بازدید:
+ نوشته شده: ۸ تير ۱۴۰۲ساعت: ۰۲:۵۰:۲۰ توسط:عرفان موضوع:

{COMMENTS}
ارسال نظر
نام :
ایمیل :
سایت :
آواتار :
پیام :
خصوصی :
کد امنیتی :