سايت تبليغات علفو پلاس سايت تبليغات علفو پلاس .

سايت تبليغات علفو پلاس

به گفته محققان، مدل‌هاي هوش مصنوعي مولد سوگيري‌ها و كليشه‌هاي منفي را در كاربران خود رمزگذاري مي‌كنند.

chatgptاعتبار: Unsplash/CC0 دامنه عمومي

در عرض چند ماه، مدل‌هاي مولد هوش مصنوعي، مانند ChatGPT، Bard Google و Midjourney، توسط افراد بيشتري به روش‌هاي مختلف حرفه‌اي و شخصي مورد استفاده قرار گرفته‌اند. اما تحقيقات رو به رشد تاكيد مي‌كند كه آن‌ها سوگيري‌ها و كليشه‌هاي منفي را در كاربران خود رمزگذاري مي‌كنند، و همچنين اطلاعات به ظاهر دقيق اما بي‌معني توليد و منتشر مي‌كنند. نگران‌كننده است كه گروه‌هاي حاشيه‌نشين به‌طور نامتناسبي تحت تأثير جعل اين اطلاعات بي‌معني هستند.

 

علاوه بر اين، ساخت انبوه اين پتانسيل را دارد كه بر باور انسان تأثير بگذارد، زيرا مدل‌هايي كه آن را هدايت مي‌كنند، به طور فزاينده‌اي رايج مي‌شوند و شبكه جهاني وب را پر مي‌كنند. مردم نه تنها اطلاعات را از وب مي‌گيرند، بلكه بسياري از مواد آموزشي اوليه مورد استفاده مدل‌هاي هوش مصنوعي نيز از اينجا مي‌آيند. به عبارت ديگر، يك حلقه بازخورد پيوسته شكل مي‌گيرد كه در آن سوگيري‌ها و مزخرفات تكرار مي‌شوند و بارها و بارها پذيرفته مي‌شوند.

اين يافته‌ها - و درخواستي براي روانشناسان و متخصصان يادگيري ماشيني براي همكاري بسيار سريع براي ارزيابي مقياس اين موضوع و ابداع راه‌حل - امروز در Perspective در مجله Science منتشر شده است كه توسط Abeba Birhane نويسنده مشترك است . استاديار در دانشكده علوم كامپيوتر و آمار ترينيتي (با آزمايشگاه نرم افزار پيچيده ترينيتي كار مي كند) و عضو ارشد هوش مصنوعي قابل اعتماد در بنياد موزيلا.

پروفسور برهانه گفت: "افراد به طور منظم عدم قطعيت را از طريق عباراتي مانند "من فكر مي كنم"، تاخير در پاسخ، اصلاحات، و ناهمواري هاي گفتاري را بيان مي كنند. در مقابل، مدل هاي مولد پاسخ هاي مطمئن و روان و بدون بازنمايي عدم قطعيت و يا توانايي بيان عدم وجود آنها را ارائه مي دهند. در نتيجه، اين مي‌تواند باعث تحريف بيشتر در مقايسه با ورودي‌هاي انساني شود و منجر به پذيرش پاسخ‌ها به‌عنوان واقعيات واقعي شود.تبليغات كسب و كار 

يكي از اين مثال‌ها كه در Perspective ارائه شده است، بر اين تمركز دارد كه چگونه قوانين آماري در يك مدل به متهمان سياه‌پوست امتيازات ريسك بالاتري اختصاص مي‌دهند. قضات دادگاه كه الگوها را آموخته‌اند، ممكن است شيوه‌هاي محكوميت خود را تغيير دهند تا با پيش‌بيني‌هاي الگوريتم‌ها مطابقت داشته باشند. اين مكانيسم اساسي يادگيري آماري مي‌تواند قاضي را به اين باور برساند كه سياه‌پوستان بيشتر احتمال دارد كه مجدداً مرتكب جرم شوند - حتي اگر استفاده از سيستم توسط مقرراتي مانند مقرراتي كه اخيراً در كاليفرنيا تصويب شده متوقف شود.

يكي از نگراني‌هاي ويژه اين واقعيت است كه به راحتي نمي‌توان سوگيري‌ها يا اطلاعات ساختگي را پس از پذيرفته شدن توسط يك فرد متزلزل كرد. كودكان به ويژه در معرض خطر بالايي قرار دارند، زيرا در برابر تحريف باورها آسيب پذيرتر هستند زيرا احتمال بيشتري دارد كه فناوري را انسان‌سازي كنند و راحت‌تر تحت تأثير قرار بگيرند.

آنچه مورد نياز است، تجزيه و تحليل سريع و دقيق است كه تأثير مدل هاي مولد را بر باورها و  انساني اندازه گيري كند .

پروفسور برهانه گفت: "مطالعات و مداخلات بعدي به طور مؤثر بر تأثيرات بر جمعيت هاي به حاشيه رانده شده متمركز خواهد بود كه به طور نامتناسبي تحت تأثير ساختگي ها و  در خروجي هاي مدل قرار مي گيرند. منابع اضافي براي آموزش مردم، سياست گذاران و دانشمندان بين رشته اي مورد نياز است. براي ارائه ديدگاه‌هاي آگاهانه واقع بينانه از نحوه عملكرد مدل‌هاي هوش مصنوعي مولد و اصلاح اطلاعات نادرست و تبليغات موجود پيرامون اين فناوري‌هاي جديد."

 


برچسب: ،
ادامه مطلب
امتیاز:
 
بازدید:
+ نوشته شده: ۸ تير ۱۴۰۲ساعت: ۰۳:۰۷:۵۸ توسط:عرفان موضوع:

پرسش و پاسخ: آينده پروازهاي خودكار ممكن است از آنچه فكر مي كنيد نزديكتر باشد

اعتبار: CC0 دامنه عمومي

در چشم انداز رابرت رز براي آينده، ما در حال حاضر در آستانه يك دگرگوني چشمگير در تحرك انسان هستيم. شركت جديد رز، Reliable Robotics، كهنه كار تسلا و اسپيس ايكس، اكنون در تلاش است تا پرواز را كاملاً خودكار كند.

 

تظاهرات ماه مه در پايگاه نيروي هوايي تراويس در فيرفيلد، كاليفرنيا، جايي كه يك هواپيماي خودكار بدون كمك انساني بلند شد و فرود آمد، گواه اين است كه آن آينده ممكن است چندان دور نباشد.

ما با رز در مورد كار Reliable Robotics و آنچه در ادامه خواهد آمد صحبت كرديم.

س: ممكن است كمي در مورد سوابق خود براي ما توضيح دهيد؟

پاسخ: من يك مهندس نرم افزار هستم. من در بسياري از مكان‌هاي مختلف در حرفه‌ام كار كردم – مهم‌ترين آن، من مديريت تيم نرم‌افزار پرواز در SpaceX بود. من همچنين در روزهاي اوليه برنامه خلبان خودكار را در تسلا موتورز اجرا مي كردم. من اولين نسخه از خلبان خودكار را روي مدل S ارسال كردم.

من Reliable Robotics را در سال 2017 با همكار سابق اسپيس ايكس شروع كردم. سابقه وي مهندسي سخت افزار و  است .  بياوريم .

س: آيا مي توانيد آن را تجزيه كنيد؟ چشم انداز شما براي اين فناوري چيست؟

ج: وقتي جوانتر بودم كمي پرواز كردم. مادر من يك خلبان بود - نه يك خلبان تجاري، اما او براي تفريح ​​پرواز مي كرد.

بنابراين، زماني كه بچه بودم كمي با هواپيما آشنا شدم. و زماني كه حدود شش سال پيش دوباره شروع به خواندن دروس پرواز كردم، واقعاً شوكه شدم كه چگونه هواپيما واقعاً تكامل نيافته است.

خلبان‌هاي خودكار كمي پيچيده‌تر و سيستم‌هاي ناوبري كمي پيچيده‌تر هستند. اما اساساً وضعيت فناوري در 30 يا 40 سال گذشته تغيير زيادي نكرده است.

من فكر مي كردم شرم آور است كه هنوز در هوانوردي حوادث رخ مي دهد. اغلب، علت اصلي اين حوادث يا خطاي انساني است يا افرادي كه چيزي را كه در هواپيما اتفاق مي افتد تفسير مي كنند يا به اندازه كافي سريع واكنش نشان نمي دهند.

ما اين توانايي را داريم كه سطوح پيشرفته تري از اتوماسيون و فناوري افزايش ايمني را در هواپيماها قرار دهيم. چرا ما آن را انجام نمي دهيم؟ بنابراين در بررسي اين سوال بود كه تصميم گرفتم اين شركت را راه اندازي كنم.
 

س: درك من اين است كه هوانوردي به طور كلي بسيار ايمن است. آيا اين ايده در اينجا براي رسيدن به اين نقطه است كه اصلاً تصادفي وجود ندارد؟

پاسخ: ما در صنعت هوانوردي اين تهوع را تكرار مي كنيم كه ايمن ترين روش حمل و نقل است. اين كاملاً درست نيست.

درست است كه وقتي به SFO مي رويد و سوار يك جت تجاري بزرگ مي شويد، در آن جت امن تر از رانندگي به سمت SFO هستيد. اما اگر سوار هر نوع هواپيماي كوچكتري شويد، اين درست نيست. هواپيماهاي كوچكتر در واقع 9 تا 15 برابر خطرناكتر از رانندگي هستند.

مردم دوست ندارند در مورد آن صحبت كنند. علت شماره يك و شماره دو سوانح مرگبار در هوانوردي همان چيزي است كه به آن پرواز كنترل شده به داخل زمين گفته مي شود، كه به معناي تقاطع كنترل شده و غيرعمدي با زمين است - اساساً قرار دادن هواپيما در كنار كوه.

اين فقط يك چيز نااميد كننده ساده براي جلوگيري است. سازمان زمين شناسي ايالات متحده داده هاي خارق العاده اي در مورد هر كوه و هر مانع و هر ساختمان دارد. ما نبايد به شما اجازه دهيم خلبان خودكاري را برنامه ريزي كنيد كه در كنار كوه پرواز كند.

دومين علت شايع تصادفات مرگبار  در پرواز است. و اين بدان معناست كه شما در حال پرواز هستيد، و ناگهان در يك ابر قرار مي گيريد و منحرف مي شويد، و هواپيما را وارونه مي كنيد. يا فقط هواپيما را خيلي آهسته پرواز مي كنيد، و در نهايت كمي بيش از حد بانكي مي كنيد و هواپيما را متوقف مي كنيد. متأسفانه، ما در دهه گذشته تعدادي از آنها را در منطقه خليج داشته ايم.

اينها همه چيزهايي هستند كه به راحتي با اتوماسيون قابل پيشگيري هستند.

س: خلبانان تا چه حد از سيستم هاي خودكار در هواپيماها استفاده مي كنند؟

پاسخ: تصور نادرستي در مردم وجود دارد كه هواپيماها در حال حاضر بسيار خودكار هستند.

واقعيت كمي جزئي تر از آن است. خلبان‌هاي خودكاري كه امروزه در هواپيما داريم، سطوح اضافي لازم براي مديريت واقعي هواپيما در تمام مراحل پرواز را ندارند.

اين اساساً كاري است كه شركت ما انجام مي دهد، ساخت اين فناوري هاي ناوبري و اتوماسيون است كه به شما امكان مي دهد واقعاً يك هواپيماي كاملاً خودكار داشته باشيد كه نيازي به خلبانان تمام وقت نشسته در هواپيما براي نظارت بر آن ندارد.افزايش مشتري

س: حذف خلبان ها از معادله چه فايده اي دارد؟

پاسخ: دليل انجام اين كار، شماره يك، ايمني است. اما شماره دو، هنگامي كه هواپيمايي داريد كه مي تواند اين كار را انجام دهد، هوانوردي را به روي افراد بيشتري باز مي كند و انواع جديدي از هواپيماها را نيز فعال مي كند.

پروازها بسيار منعطف تر خواهند بود، به دست آوردن آنها آسان تر خواهد بود، و همچنين پروازهايي به فرودگاه هاي بيشتري خواهيم داشت. همچنين انواع جديدي از هواپيماها را فعال مي كند و هواپيماهاي كوچكتر از نظر اقتصادي كاربردي تر خواهند بود.

اين بدان معناست كه به جاي نياز به رفتن به سن خوزه يا اوكلند يا سانفرانسيسكو براي دريافت يك پرواز تجاري، ممكن است بتوانيد آن را از ريد هيل ويو يا هيوارد فيلد يا پالو آلتو يا سن كارلوس يا هر تعداد از ده ها پرواز دريافت كنيد. فرودگاه هاي كوچكتري كه در منطقه خليج داريم. و من فكر مي كنم كه واقعا هيجان انگيز است.

س: اين مرحله نهايي تقريباً شبيه جتسون ها به نظر مي رسد - تقريباً دسترسي جهاني به پرواز، اساساً از آستان شما. اين جايي است كه مي بينيد اين دارد مي رود؟

پاسخ: بله، من فكر مي كنم كه تا پايان دهه آينده امكان پذير است. فكر مي‌كنم روشي كه در آينده بليط هواپيما مي‌خريد، مانند تماس با Uber يا Lyft در تلفن شما خواهد بود.

شما خواهيد گفت "من اينجا هستم و مي خواهم به اين مكان ديگر بروم." و اين سيستم شما را با هواپيماهايي كه در آن سمت حركت مي كنند مطابقت مي دهد.

فناوري هاي كليدي ديگري نيز وجود دارند كه براي رسيدن به آن بايد توسعه داده شوند. ما بايد هواپيما را كمي كارآمدتر كنيم.

من فكر مي كنم تركيب هواپيماهاي الكتريكي هيبريدي و خلباني از راه دور چيزي است كه در دهه آينده يا بيشتر شبيه اين انقلاب بزرگ و دگرگون كننده خواهد بود. و اين زماني است كه تحرك انسان واقعاً تغيير مي كند.

اما دقيقاً شبيه جتسون ها نخواهد بود. اين هواپيماهايي با ظاهر معمولي با بال هستند.

س: چقدر احساس مي‌كنيد كه ما به آن چشم‌انداز نزديك هستيم. چه زماني مي‌توانيم اجراي اين فناوري را در مقياس بزرگ آغاز كنيم؟

پاسخ: فكر مي‌كنم ما از آن چيزي كه بيشتر مردم تصور مي‌كنند به ما نزديك‌تر هستيم، اما از آنچه من مي‌خواهم دورتر هستيم. اين قرار است در اين دهه اتفاق بيفتد. اما مراحل زيادي وجود دارد كه بايد قبل از رسيدن به آنجا انجام شود.

 


برچسب: ،
ادامه مطلب
امتیاز:
 
بازدید:
+ نوشته شده: ۸ تير ۱۴۰۲ساعت: ۰۳:۰۵:۰۷ توسط:عرفان موضوع:

هوش مصنوعي جديد: آيا سيليكون ولي دوباره روي محصولات ديگران به ثروت خواهد رسيد؟

اعتبار: دامنه عمومي Pixabay/CC0

دره سيليكون بار ديگر آماده است تا از محصولات ديگران پول نقد كند و اطلاعاتي در مقياس بي سابقه اي ايجاد كند كه قبلاً منجر به شكايت ها و جلسات كنگره شده است.

 

چت‌بات‌ها و ديگر اشكال هوش مصنوعي مولد كه در ماه‌هاي اخير وارد صحنه فناوري شده‌اند، به مقدار زيادي از مواد خراشيده شده از اينترنت - كتاب‌ها، فيلم‌نامه‌ها، مقالات تحقيقاتي، داستان‌هاي خبري، عكس‌ها، هنر، موسيقي، كد و موارد ديگر-  توليد تغذيه مي‌شوند. پاسخ ها، تصاوير يا صدا در پاسخ به درخواست هاي كاربر.

شركت هاي فناوري براي استفاده از اين فناوري جديد و بالقوه پرسود در حال سقوط هستند. گوگل، با ارزش 1.5 تريليون دلار، پس از سرمايه گذاري ميلياردها دلاري رقيب مايكروسافت به ارزش 2.4 تريليون دلار در OpenAI، پيشگام هوش مصنوعي در سانفرانسيسكو، با چت ربات Bard خود وارد عمل شد. متا با ارزش 680 ميليارد دلار به تازگي اعلام كرده است كه قصد دارد چت بات ها را به برنامه هاي خود اضافه كند. سرمايه گذاران خطرپذير ميلياردها دلار را به استارتاپ هاي مولد هوش مصنوعي سرازير مي كنند.

اما يك موضوع خاردار، بحث برانگيز و بسيار مهم به وجود آمده است: بخش زيادي از علوفه ربات ها داراي حق چاپ است.

در ژانويه، كارلا اورتيز، هنرمند منطقه خليج، به يك كاريكاتوريست اورگان و يك نقاش تنسي پيوست تا از شركت توليد تصوير مستقر در بريتانيا Stability AI در دادگاه منطقه اي ايالات متحده در سانفرانسيسكو شكايت كند و مدعي شد كه Stability با آموزش نرم افزار خود در موارد بيشتر، حقوق ميليون ها هنرمند را نقض كرده است. بيش از 5 ميليارد تصوير داراي حق چاپ بدون اجازه يا غرامت از اينترنت پاك شده است.

در اين دادخواست ادعا شده است: "اين فقط آنها را گرفت." در دادخواست ادعا شده است كه خروجي هاي Stability AI "به طور انحصاري" از آن تصاوير گرفته شده و "به طور قابل توجهي بر بازار اثر منفي خواهد گذاشت" براي آثار هنرمندان.

Stability AI، در پرونده‌اي در دادگاه آوريل، استدلال كرد كه نرم‌افزار آن «كاربران را قادر مي‌سازد تا تصاوير كاملاً جديد و منحصربه‌فرد ايجاد كنند» و فناوري آن موادي با «شباهت اساسي» با آثار داراي حق چاپ هنرمندان توليد نمي‌كند.

مشكل مالكيت معنوي هوش مصنوعي جديد فراتر از هنر به فيلم و تلويزيون، عكاسي، موسيقي،  و برنامه نويسي كامپيوتري مي رود. منتقدان نگران هستند كه بازيگران اصلي فناوري، با قرار دادن خود بين توليدكنندگان و مصرف‌كنندگان در بازارهاي تجاري، پول را از بين ببرند و انگيزه‌هاي مالي براي توليد فيلمنامه‌هاي تلويزيوني، آثار هنري، كتاب، فيلم، موسيقي، عكاسي، پوشش خبري و نرم‌افزارهاي نوآورانه را حذف كنند.

دانيل كافي، مدير عامل News/Media Alliance كه نماينده تقريباً 2000 ناشر خبري ايالات متحده از جمله اين سازمان خبري است، گفت: "اين مي تواند فاجعه بار باشد." اين مي تواند صنعت ما را از بين ببرد.

فناوري جديد، مانند ساير نوآوري‌هاي دره سيليكون، از جمله جستجوي اينترنتي، رسانه‌هاي اجتماعي و تحويل غذا، به سرعت در ميان مصرف‌كنندگان و كسب‌وكارها در حال گسترش است كه ممكن است مدت‌ها قبل از جمع‌آوري قانون‌گذاران و قانون‌گذاران، ريشه‌دار شود – و مورد علاقه كاربران قرار گيرد. دانش و اراده سياسي براي اعمال محدوديت ها و كاهش آسيب ها.

زوئي لوفگرن، نماينده كنگره در كاليفرنيا، كه به عنوان يكي از اعضاي كميته قضايي مجلس نمايندگان در ماه گذشته شاهد شنيدن شهادت در مورد كپي رايت و هوش مصنوعي مولد بود، گفت: «ما ممكن است به قانون نياز داشته باشيم. سازندگان محتوا حقوقي دارند و ما بايد راهي پيدا كنيم كه چگونه اين حقوق رعايت مي شود.»

محور اصلي اين موضوع دكترين استفاده منصفانه است كه اجازه مي دهد اثر داراي حق چاپ بدون مجوز تحت شرايط خاصي استفاده شود. لافگرن معتقد است دادگاه ها قبل از اينكه كنگره هر اقدامي را انجام دهد در اين مورد تصميم خواهند گرفت.

متيو باتريك، وكيل و برنامه نويس كامپيوتري در Bay Area، اواخر سال گذشته اولين شكايت حقوقي را با طرح دعواي طبقه اي پيشنهادي از طرف دو شاكي ناشناس عليه مايكروسافت، زيرمجموعه آن GitHub و شريك آن OpenAI، به اتهام دستيار برنامه نويسي مجهز به هوش مصنوعي GitHub راه اندازي كرد. Copilot بر اساس "دزدي دريايي نرم افزار در مقياسي بي سابقه" ساخته شده است. شركت هاي متهم در ژانويه به دادگاه منطقه اي ايالات متحده در سانفرانسيسكو با اين ادعا كه ابزار آن "دانش به دست آمده از ميلياردها خط كد عمومي را متبلور مي كند" و "از متن كد منبع باز در دسترس عموم چيزي برداشت نمي كند" واكنش نشان دادند. "و يادگيري، درك و همكاري را پيش مي برد.

خشم در مورد جذب محتوا در حال افزايش است. غول فروش عكس Getty نيز از Stability AI شكايت كرده است. ماه گذشته فيلمنامه نويسان برجسته هاليوود اين نگراني را ايجاد كردند كه استوديوهاي فيلم شروع به استفاده از فيلمنامه هاي نوشته شده با چت بات كه از آثار قبلي نويسندگان تغذيه مي شود، كنند. صنعت ضبط به دليل استفاده از موسيقي داراي حق چاپ براي آموزش هوش مصنوعي به مقامات فدرال شكايت كرده است.افزايش مشتري

اريك گلدمن، استاد دانشكده حقوق دانشگاه سانتا كلارا معتقد است كه اين قانون به نفع استفاده از مطالب داراي حق چاپ براي آموزش هوش مصنوعي مولد است. گلدمن، كارشناس حقوق اينترنت، مي‌گويد: «همه آثار بر اساس آثار سابقه‌اي ساخته شده‌اند. "همه ما آزاديم كه قطعاتي از كارهاي پيشين را برداريم. آنچه هوش مصنوعي مولد انجام مي دهد اين است كه اين فرآيند را تسريع مي بخشد، اما اين همان روند است. همه اينها بخشي از تكامل انبار دانش جامعه ما است."

فرانس لانتينگ، عكاس مشهور حيات وحش از سانتا كروز، كاليفرنيا، خاطرنشان كرد، با اين حال، پيشرفت‌هاي فناوري، سابقه‌اي از  براي توليدكنندگان محتوا دارد. لنتينگ گفت: "قداست قانون كپي رايت بيش از پيش توسط فناوري‌هاي جديد تضعيف شده  . رايگان مي شود."

لنتينگ نگران است كه عكس‌هاي خودش، كه معمولاً با داستان‌هايي درباره تأثيرات انسان بر دنياي طبيعي ارائه مي‌شود، مي‌تواند از طريق هوش مصنوعي تكرار شود و به گونه‌اي ارائه شود كه اعتماد به كار او را تضعيف كند.

شوميت گوس، مدرس مهندسي دانشگاه كاليفرنيا-بركلي و سرمايه‌دار مخاطره‌آميز، گفت كه هوش مصنوعي مولد ممكن است براي جلوگيري از تقليد مستقيم از كار سازندگان، به مقررات نياز داشته باشد. او گفت، اما پتانسيل آن براي افزايش بسياري از اشكال خلاقيت، قهرمان داستان هاي مصور و فيلم مرد آهني را به ياد مي آورد، انساني كه توسط فناوري تقويت شده است. گوس گفت احتمالاً "آينده مرد آهني است."

از نظر Coffey News/Media Alliance، توجه قانونگذاران فدرال دليلي براي خوش بيني محفوظ مي دارد، به ويژه با توجه به تاريخچه سيليكون ولي، كه شاهد بود گوگل و فيس بوك با قرار دادن خود بين توليدكنندگان و مصرف كنندگان اخبار، صنعت اخبار را فلج كردند تا سهم شير را از بين ببرند. درآمد حاصل از تبليغات ديجيتال، با توجه به قانون‌گذاران در سراسر جهان، دهه‌ها طول كشيده است. «اصول AI» اتحاد مي گويد استفاده منصفانه براي حذف غيرمجاز محتواي ناشران براي هوش مصنوعي اعمال نمي شود و به توليدكنندگان اخبار بايد از طريق سيستمي كه هنوز توسعه نيافته است، احتمالاً مجوز، پول پرداخت شود.

صدور مجوز ممكن است يك راه حل مشكل ساز باشد. زماني كه شركت‌هاي فناوري مانند اپل با ارزشي نزديك به 3 تريليون دلار و 30 ميليارد دلار Spotify بين نوازندگان و شنوندگان براي ارائه موسيقي آنلاين مداخله كردند، آن شركت‌ها و شركت‌هاي ضبط موسيقي، همراه با بخش كوچكي از ستاره‌هاي موسيقي، بخش عمده‌اي از درآمد را به دست آوردند. اكثر نوازندگان درآمد نسبي ناچيزي دارند.

لوفگرن راه حلي مي خواهد كه رهبري كشور را فداي فناوري جديد و پيشرفت هايي كه وعده مي دهد نكند. او گفت: «ما مي‌خواهيم تلاش‌هايمان را متعادل كنيم تا مطمئن شويم كه با هنرمندان و ديگران عادلانه رفتار مي‌شود. ما همچنين نمي‌خواهيم آمريكا را در جايگاه دوم يا سوم قرار دهيم.»

ساني‌ويل، كاليفرنيا، مهندس نرم‌افزار يوهانس ارنست، مدير عامل Dazzle Labs، استارت‌آپي كه پلتفرمي براي كنترل داده‌هاي شخصي ايجاد مي‌كند، گفت كه توليدكنندگان محتوا مي‌توانند كار خود را با شرايطي براي استفاده كه بايد توسط شركت‌هايي كه در وب براي يافتن خوراك هوش مصنوعي مي‌خزند دنبال كنند، حاشيه‌نويسي كنند. . ارنست گفت كه بحث‌ها در مورد حمايت‌هاي قانوني، گاري را جلوتر از اسب قرار مي‌دهد.

او گفت: «ما بايد بفهميم كه چه چيزي در اينجا درست و غلط است. براي لحظه‌اي به آنچه قانون مي‌گويد ناديده بگيريد و بگوييد: «چطور بايد باشد؟» سپس ببينيد از چه قوانيني مي‌توانيم آن را به اين شكل بسازيم، و ببينيد چه قوانين جديدي ممكن است لازم باشد.

 


برچسب: ،
ادامه مطلب
امتیاز:
 
بازدید:
+ نوشته شده: ۸ تير ۱۴۰۲ساعت: ۰۳:۰۳:۲۲ توسط:عرفان موضوع:

فناوري هوش مصنوعي براي تجزيه و تحليل يكپارچه ايمن داده هاي نگهداري شده توسط چندين سازمان

اعتبار: ART STOCK CREATIVE/Shutterstock

جمع آوري داده هاي كافي بدون سوگيري توزيع براي بهبود عملكرد تحليل هوش مصنوعي (AI) ضروري است. فناوري هوش مصنوعي براي جمع‌آوري داده‌هاي پراكنده در چندين مؤسسه و انجام ايمن تجزيه و تحليل يكپارچه و در عين حال محرمانه نگه داشتن اطلاعات خاص، مانند اطلاعات شخصي و دانش، مورد نياز است. به طور خاص، اعتقاد بر اين است كه اگر اطلاعات شخصي در داده‌هاي به اشتراك‌گذاشته‌شده دخيل و قابل شناسايي باشد، استفاده از داده‌ها محدود مي‌شود.

 

يك تيم تحقيقاتي يك فناوري هوش مصنوعي ايمن به نام «تحليل همكاري داده‌هاي غيرقابل شناسايي» را توسعه داده‌اند كه تنها داده‌هاي انتزاعي را به اشتراك مي‌گذارد كه به آساني با داده‌هاي اصلي قابل شناسايي نيستند و امكان تجزيه و تحليل يكپارچه اطلاعات شخصي كه توسط چندين طرف، مانند شركت‌ها، نگهداري  .  ، بيمارستان ها و ساير سازمان ها. مقاله آنها در مجله Information Fusion منتشر شده است .

اين تيم چارچوبي را براي تعاريف رياضي داده هاي به راحتي قابل شناسايي معرفي كرده است. پس از آن، تيم يك الگوريتم تجزيه و تحليل يكپارچه را پيشنهاد كرده است كه تنها داده هاي انتزاعي را كه نمي توان به راحتي با داده هاي اصلي شناسايي كرد، به اشتراك مي گذارد. اين امكان استفاده از داده هاي بيشتري را در تجزيه و تحليل مربوط به اطلاعات شخصي فراهم مي كند، كه به نوبه خود، انتظار مي رود به طور قابل توجهي دقت تجزيه و تحليل هوش مصنوعي را بهبود بخشد.

كاربردهاي خاص شامل پيش بيني بيماري از طريق تخمين عوامل خطر از طريق تجزيه و تحليل يكپارچه داده هاي آزمايش و دارو از چندين مؤسسه پزشكي و افزايش اثربخشي آموزشي از طريق تجزيه و تحليل يكپارچه داده هاي دانش آموزان از چندين مؤسسه آموزشي  . پيش بيني مي شود كه اين فناوري توسعه يك پلتفرم جديد را تسهيل كند كه اطلاعات شخصي با كيفيت بالا را از موسسات مختلف جمع آوري مي كند و در عين حال از داده هاي اصلي محافظت مي كند و از هوش مصنوعي براي تجزيه و تحليل جامع داده ها استفاده مي كند.


برچسب: ،
ادامه مطلب
امتیاز:
 
بازدید:
+ نوشته شده: ۸ تير ۱۴۰۲ساعت: ۰۳:۰۱:۰۸ توسط:عرفان موضوع:

پرسش و پاسخ: روانشناسي در مورد سوگيري و مشكل اطلاعات نادرست هوش مصنوعي چه چيزي مي تواند به ما بياموزد؟

 مي‌آموزند به خاطر مي‌آورند. اما همانطور كه ابزارهاي هوش مصنوعي مولد مانند ChatGPT در دسترس و قابل اعتمادتر مي شوند، روانشناسان نگران هستند كه پاسخ هاي اشتباهي كه ارائه مي دهند به عنوان حقيقت در ميان كاربران تلقي شود. تصحيح اين اطلاعات غلط بسيار دشوار است. اعتبار: آليسون سانگ از طريق Unsplash

دانش ممكن است قدرت باشد. اما اگر اطلاعاتي كه منجر به آن دانش مي شود اشتباه باشد چه؟

 

پاسخ به سلست كيد، استاديار روانشناسي در دانشگاه كاليفرنيا بركلي، ساده است: اين خطرناك و شايد نگران كننده ترين جنبه گسترش سريع هوش مصنوعي مولد است.

سيستم هايي مانند ChatGPT، Stable Diffusion و DALL-E در سراسر سياره موج زده اند. ميليون‌ها نفر از اين پلت‌فرم‌ها براي سرگرمي استفاده كرده‌اند، آن‌ها را در جريان كار حرفه‌اي خود گنجانده‌اند و براي پاسخ‌هاي سريع در مورد موضوعات بي‌اهميت و پيچيده به آنها مراجعه كرده‌اند.

اين رونق هوش مصنوعي هزاران دانشمند و رهبر فناوري را بر آن داشته است تا با استناد به آنچه كه آنها "خطرات عميق براي جامعه و بشريت" مي نامند، خواستار توقف در پيشرفت هاي آينده شوند. از اختلال شغلي گرفته تا مسابقه تسليحاتي هوش مصنوعي شركتي، مخاطرات زياد است.

كيد گفت، اما شايد خطرناك‌ترين و ناديده گرفته‌شده‌ترين خطر اين باشد كه چگونه  

در ديدگاهي كه در 22 ژوئن در مجله Science منتشر شد، كيد و يكي از نويسندگان Abeba Birhane، يكي از همكاران ارشد قابل اعتماد هوش مصنوعي در بنياد موزيلا و استاديار علوم كامپيوتر در كالج ترينيتي دوبلين، توضيح مي‌دهند كه چگونه دهه‌ها تحقيق روان‌شناختي در مورد چگونگي يادگيري ما انجام شده است. مي تواند به ايجاد پل تفاهم در مورد آنچه در خطر است كمك كند."

كيد گفت: «وقتي مقامات شركت در مورد "در اين بخش، ما در مورد آسيب‌هايي صحبت مي‌كنيم كه از استفاده مورد نظر از اين سيستم‌ها رخ مي‌دهد. استفاده از اين سيستم به نيروي شيطاني براي توليد اطلاعات نادرست كه هدف آن فريب مردم است، نياز ندارد."

بركلي نيوز با كيد در مورد تفسير در Science ، وضعيت هوش مصنوعي و آنچه روانشناسي مي تواند در مورد خطرات ناشي از اين پلتفرم ها به ما بياموزد، صحبت كرد.

روانشناسي در مورد سوگيري و مشكل اطلاعات نادرست هوش مصنوعي چه چيزي مي تواند به ما بياموزد؟سلست كيد. اعتبار: سلست كيد

بركلي نيوز: شما شروع به تهيه پيش نويس اين قطعه در فوريه كرديد، قبل از اينكه بسياري خواستار توقف توسعه هوش مصنوعي شوند. چرا براي شما به عنوان يك روانشناس مهم بود كه توضيح دهيد چگونه هوش مصنوعي باورهاي انسان را تحريف مي كند؟

سلست كيد: به خوبي ثابت شده است كه اين مدل هاي هوش مصنوعي مواد مغرضانه و همچنين ساختگي توليد مي كنند. اين جديد نيست. چيزي كه شنيدن من و ساير افرادي كه در اين زمينه كار مي‌كنند نااميدكننده بود، پاسخ‌هاي توسعه‌دهندگان بود: «بله، مشكلاتي وجود دارد». "تحريف‌ها وجود دارد. جعل‌ها و سوگيري‌ها وجود دارد. اما ما به افرادي نياز داريم كه از مدل‌ها استفاده كنند تا مشكلات را كشف كنند و سپس آنها را اصلاح كنيم."

مشكل اين منطق اين است كه بسياري از سوگيري‌ها و ساختگي‌ها ممكن است براي مردم قابل تشخيص نباشد - به خصوص اگر از سيستم براي كمك به تصميم‌گيري استفاده كنند.

در آن مرحله، اين سيستم ها اطلاعات را به شخص منتقل مي كنند. شايد اصلاح آن آسان نباشد.

در اين مقاله، شما چندين "اصول روانشناسي" را ذكر مي كنيد كه به توضيح اينكه چرا سوگيري و اطلاعات نادرست چيزهاي مهمي براي درك در هنگام يادگيري هستند كمك مي كند. منظورت چيه؟

ما مي دانيم كه افراد بر اساس عواملي كه از نظر آنها اعتماد به نفس دارند، سريعتر باورهاي قوي تري را شكل مي دهند. اين چت بات ها مانند مكالمه اي هستند كه در حال انجام آن هستيد، كه با خروجي هايي كه ممكن است هنگام جستجوي آنلاين با آن مواجه شويد بسيار متفاوت است. اين به دليل ماهيت ارائه اطلاعات بيشتر شبيه يك فرد است.

همچنين، اين سيستم ها انواع نشانگرهاي عدم قطعيت را كه يك عامل انساني توليد مي كند، توليد نمي كنند. هنگامي كه مردم در حال صحبت هستند، چيزهايي مانند، "من فكر مي كنم" يا "من كاملا مطمئن هستم" مي گويند. انواع و اقسام نشانگرهاي كلامي براي عدم اطمينان وجود دارد. خروجي‌هاي مدل هوش مصنوعي مولد چيزي در خود ندارند كه نشان دهنده عدم قطعيت باشد تا مردم بدانند كه پاسخ‌ها ممكن است قابل اعتماد نباشند. در واقع، هيچ چيزي در معماري اين مدل ها وجود ندارد كه بتوان از آن براي ايجاد سيگنال عدم قطعيت در خروجي ها استفاده كرد.

اين مدل ها نمي توانند واقعيت را از ساخت تشخيص دهند. اين يك مشكل است.

شما همچنين نوشتيد كه يك بازه زماني محدود وجود دارد كه هنگام يادگيري چيزهاي جديد، آماده تغيير افكار خود هستيم، درست است؟ بيشتر راجع بهش به من بگو.

اگر كسي از چيزي مانند ChatGPT براي جستجوي اطلاعات استفاده مي‌كند، اگر آن را ابزاري مي‌داند كه تمام دانش بشري را فهرست‌بندي يا فهرست‌بندي مي‌كند، براي ارائه اطلاعات خوب به آن متكي است. آنها در يك لحظه خاص از آن سيستم استفاده مي كنند، يعني زماني كه بسيار كنجكاو هستند.

زماني كه شما بسيار كنجكاو هستيد، زماني است كه بيشتر آماده تغيير عقيده خود هستيد. آن وقت است كه شما به دنبال اطلاعات هستيد. آن وقت است كه يادگيري اتفاق مي افتد. زمان جادويي است. اما اگر در آن لحظه به شما تعصبات و جعل داده مي شود، مشكل ساز است، به خصوص اگر آنها با اطمينان بيان شوند و به خصوص اگر تقويت شوند، اگر به طور مكرر رخ مي دهند. اين سيستم ها براي ارائه نوعي پاسخ جامع و دقيق طراحي شده اند. اين دقيقاً همان نوع اطلاعاتي است كه ما نگران آن هستيم كه اين فرصت يادگيري را ببندد.

به عبارت ديگر، شما دچار عدم اطمينان هستيد و پس از رفع آن، پنجره تغيير عقيده شما بسته مي شود. بعد از اين واقعيت باز كردن آن آسان نيست.

شما نوشتيد كه گروه هاي به حاشيه رانده شده از جمله افرادي هستند كه بيشتر تحت تأثير اين سوگيري ها قرار مي گيرند. گزارش هاي اخير نيز اين موضوع را با جزئيات كامل نشان داده است. چگونه مي بينيد كه اين يك مشكل ريشه دار تر مي شود؟

مردم به طور مداوم به آمار در جهان توجه مي كنند و اين آمارها را در ديدگاه خود از نحوه كاركرد چيزها در جهان ادغام مي كنند. اگر از Stable Diffusion، يك مدل هوش مصنوعي متن به تصوير، براي توليد تصاوير بر اساس مشاغل استفاده مي‌كنيد، و كليشه‌ها و سوگيري‌هايي در آن وجود دارد، اين چيزي است كه بر ادراك شما تأثير مي‌گذارد.

مهم است كه بتوانيم در برابر اين سيستم‌هايي كه به اشتباه نشان مي‌دهند بيشتر جنايتكاران يا فروشندگان مواد مخدر افراد رنگين پوست هستند، محافظت كنيم.

ما در لحظه اي زندگي مي كنيم كه چيزهايي مانند اطلاعات نادرست و اطلاعات نادرست در همه جا وجود دارند. مردم ممكن است به سرعت هوش مصنوعي مولد را با بقيه نيمه حقيقت ها يا دروغ هايي كه قبلاً در فضاي مجازي مي چرخند، جمع كنند. شما مي گوييد در واقع نگران كننده تر است. چرا؟

اين واقعيت كه شما با اين سيستم‌ها به گونه‌اي تعامل داريد كه گويي آنها عامل هستند، چيزي متفاوت است كه قبلاً نديده‌ايم. ساختگي ها نيز با آنچه در جستجو ديده ايم بسيار متفاوت است. هيچ چيزي در اين مدل ها وجود ندارد كه توانايي تشخيص واقعيت از داستان را داشته باشد.

تكنولوژي شگفت انگيز است. بعضي چيزها را واقعاً خيلي خوب انجام مي دهد. اما هيچ چيزي در اين فرآيند وجود ندارد كه حتي به دنبال صحت مطالب باشد. اين بسيار متفاوت از چيزي مانند الگوريتم جستجو است كه محتواي ايجاد شده توسط انسان را فهرست‌بندي و توصيه و سفارش مي‌دهد.

اين سيستم‌ها همچنين محتويات اينترنت را به طور اساسي تغيير خواهند داد، تا كنون كمتر از آن توسط انسان ساخته شده است و مشكلات آبشاري پايين دستي ايجاد مي‌كند كه حتي الگوريتم‌هاي جستجوي سنتي را تحت تأثير قرار مي‌دهند. خروجي‌هاي مدل - و تمام ساختگي‌ها و سوگيري‌هاي موجود در آنها - متعاقباً براي آموزش مدل‌هاي آينده استفاده مي‌شوند و اين مشكلات را تشديد مي‌كنند.

در شش ماه گذشته، اجتناب از اخبار مربوط به اين سيستم ها، از جمله سناريوهاي روز قيامت، دشوار بوده است. آيا اين هم بخشي از مشكلي است كه شما طرح مي كنيد؟

هياهوي زيادي در اطراف اين سيستم ها وجود دارد. پوشش‌هاي رسانه‌اي زيادي وجود دارد كه توسط شركت‌ها و افرادي كه منافع مالي دارند در ايجاد اين تصور كه اينها فناوري‌هاي بسيار پيچيده هستند، تحت فشار قرار مي‌گيرند.

اين تبليغات به خودي خود مي تواند در واقع آسيب بيشتري نسبت به سيستم ها داشته باشد.

به دليل آن تبليغات، مردم به اين سيستم ها مي آيند و انتظار دارند كه سطح هوش انساني داشته باشند. آن‌ها ممكن است سريع‌تر به روش‌هايي كه دائمي‌تر هستند تحت تأثير قرار گيرند تا زماني كه از حقيقت آگاه باشند، يعني اين سيستم‌ها آنقدرها هم هوشمند نيستند.

شما مي نويسيد كه چگونه آن باورهاي نادرست از فردي به فرد ديگر براي هميشه منتقل مي شود. اين خيلي اميدوار كننده نيست.

اين يك لحن نااميد كننده است. من فكر مي كنم اگر اين سيستم ها به طور گسترده در بسياري از چيزهاي ديگر ادغام شوند، اين خطر است. اين فرصتي را براي مواجهه مكرر با همان نوع جعل و تعصب ايجاد مي كند. اگر بسياري از افراد در يك جمعيت دوباره از يك سيستم استفاده كنند، اين يك مشكل است. زيرا يكي از نقاط قوت واقعي انسان ها به عنوان يك گونه، توانايي ما در تكيه بر يكديگر و تفاوت در نظرات مردم است.

گاهي دانستن خيلي چيزها در دنيا واقعا سخت است. معني زندگي چيست؟ من بايد با زمانم در زمين چه كار كنم؟ اينها سوالات بزرگي هستند كه قابل درك نيستند. و به عنوان انسان، براي اين نوع سؤالات، از مردم نظرسنجي مي كنيم. ما به آنچه ديگران فكر مي كنند توجه مي كنيم. ما در حال به روز رساني هستيم زيرا با طيف گسترده اي از انواع مختلف نظرات روبرو مي شويم.

اين واقعيت كه وقتي اطلاعات را به اين روش جمع‌آوري مي‌كنيد، در شرايطي كه سر و صدا وجود دارد، كه در آن نظرات مختلف وجود دارد، كار را سخت‌تر مي‌كند. كمتر رضايت بخش است زيرا شما آن تكه كوچكي از اطلاعاتي را كه به دنبال آن هستيد به دست نمي آوريد. شما فقط يك پاسخ ساده دريافت نمي كنيد.

اما اين در زمينه چيزهايي كه دانستن آنها دشوار است يا چيزهايي كه در حال تغيير هستند خوب است. اگر آن قطعه كوچك رضايت‌بخش را به دست نياوريد، كنجكاو باقي مي‌مانيد. و اين بدان معني است كه شما براي ادغام اطلاعات جديد در طول زمان، ذهن باز باقي مي‌مانيد.

شما در مسيري رو به جلو پيشنهادهايي ارائه مي دهيد. آنها چه هستند؟

يكي از آنها منابعي براي توسعه موادي است كه سياستگذاران و مردم را در مورد اينكه اين سيستم ها چه هستند و چه نيستند آگاه مي كند. اين بايد اتفاق بيفتد و اين ماموريت بايد توسط افرادي هدايت شود كه علاقه مالي به عملكرد خوب اين مدل ها ندارند.

ما همچنين به منابعي فوري نياز داريم تا بررسي كنيم كه چگونه چيزهايي مانند درك شما از اعتماد به يك مدل بر ميزان تحريف باورهاي شما و ميزان انتقال سوگيري به شما تأثير مي‌گذارد. ما مي دانيم كه به طور كلي از دهه ها تحقيق روانشناسي چه انتظاري داريم.

اين جنبه از آن، اين واقعيت كه مردم تحت تأثير مطالبي هستند كه با آن مواجه مي شوند، جديد نيست، اما متغيرهاي زيادي وجود دارد كه ما آنها را از دست مي دهيم. پس مردم در مورد اين مدل ها چطور هستند؟ تعامل آنها با اين مدل ها چگونه است؟ اينها چيزهايي هستند كه قابل مطالعه هستند و بايد به صورت تجربي مورد مطالعه قرار گيرند تا بتوانيم كارآمدترين اقدام را براي نحوه كاهش خطرات ايجاد كنيم.

شما ماه ها پيش در مورد اين قطعه فكر مي كرديد، قبل از اينكه برخي افراد بيرون آمدند و خواستار توقف در توسعه اين ابزارها شدند. آيا خود را فردي مي‌دانيد كه فكر مي‌كند بايد يك مكث وجود داشته باشد؟

اين يك سوال پيچيده است. فكر نمي كنم بخواهم دقيقاً در آن قالب به آن پاسخ دهم. با اين حال من چيزي خواهم گفت. برخي از مضامين قطعه علم هم در كارهاي قبلي من و هم آببه برهانه ظاهر شد. ما سابقه اي طولاني در نشان دادن نگراني نسبت به سوگيري ها در سيستم ها و راه هايي داريم كه ممكن است در بين افراد گسترش يابد و بر افراد تأثير بگذارد.

هياهو در مورد هوش مصنوعي مولد در حال حاضر اين مسائل را بسيار فوري تر مي كند. و اين تحريف ها را به طور بالقوه بدتر مي كند، زيرا، دوباره، مردم را به اين باور مي رساند كه اين چيزي است كه واقعا هوشمندانه است. اين ممكن است شما را به اين باور برساند كه اين چيزي است كه مي توان به آن اعتماد كرد.

من خواستار توقف در تبليغات تبليغاتي هستم. اين مهمترين و فوري ترين چيز است.


برچسب: ،
ادامه مطلب
امتیاز:
 
بازدید:
+ نوشته شده: ۸ تير ۱۴۰۲ساعت: ۰۳:۰۰:۱۴ توسط:عرفان موضوع:

كميته ملي مشاوره هوش مصنوعي اولين گزارش را منتشر كرد

اولين گزارش سالانه NAIAC گام هاي جديدي را براي تقويت رهبري ايالات متحده در هوش مصنوعي قابل اعتماد، ابتكارات تحقيق و توسعه جديد، افزايش همكاري بين المللي و تلاش براي حمايت از نيروي كار ايالات متحده در عصر هوش مصنوعي توصيه مي كند. اعتبار: B. Hayes/NIST، Shutterstock

كميته ملي مشاوره هوش مصنوعي (NAIAC) اولين گزارش خود را به رئيس جمهور ارائه كرده است، يك كميته فرعي اجراي قانون براي رسيدگي به استفاده از فناوري هاي هوش مصنوعي در سيستم عدالت كيفري ايجاد كرده است، و برنامه هايي را براي تنظيم مجدد گروه هاي كاري خود تكميل كرده است تا به آن اجازه كاوش در اين زمينه را بدهد. تأثيرات هوش مصنوعي بر نيروي كار، عدالت، جامعه و موارد ديگر.

 

اين گزارش اقداماتي را توصيه مي كند كه دولت ايالات متحده مي تواند براي به حداكثر رساندن مزاياي فناوري هوش مصنوعي و در عين حال كاهش مضرات آن انجام دهد. اين شامل گام هاي جديد براي تقويت رهبري ايالات متحده در هوش مصنوعي قابل اعتماد، ابتكارات جديد تحقيق و توسعه، افزايش همكاري بين المللي و تلاش براي حمايت از نيروي كار ايالات متحده در عصر هوش مصنوعي است. اين گزارش همچنين مناطق مورد توجه NAIAC را براي دو سال آينده مشخص مي كند، از جمله در حوزه هاي هوش مصنوعي كه به سرعت در حال توسعه هستند، مانند هوش مصنوعي مولد.

دان گريوز، معاون وزير بازرگاني ايالات متحده، گفت: «ما در يك لحظه مهم در توسعه فناوري هوش مصنوعي هستيم و بايد سريع كار كنيم تا با تغييراتي كه در زندگي ما ايجاد مي كند، حركت كنيم.  و دسترسي به  و آموزش باز مي‌كند ، ما موظف هستيم كه تعادل درستي بين نوآوري و خطر ايجاد كنيم. ما مي‌توانيم جهان را در ايجاد قابل اعتماد، فراگير و سودمند رهبري كنيم. هوش مصنوعي، و من مشتاقانه منتظر در نظر گرفتن توصيه هاي كميته در حين انجام اين كار هستم."

وقتي صحبت از هوش مصنوعي به ميان مي آيد، پرزيدنت بايدن به وضوح گفته است كه براي استفاده از فرصت هايي كه هوش مصنوعي ارائه مي كند، ابتدا بايد خطرات آن را كاهش دهيم. كار NAIAC از تلاش‌هاي مداوم دولت بايدن هريس براي ترويج نوآوري مسئولانه آمريكايي در هوش مصنوعي و حفاظت از حقوق و ايمني مردم پشتيباني مي‌كند.

با توجه به سرعت سريع توسعه و استقرار فناوري هوش مصنوعي مانند هوش مصنوعي مولد، كه شامل مدل‌هاي زبان بزرگي است كه ربات‌هاي گفتگو و ساير ابزارهايي را كه محتواي جديد ايجاد مي‌كنند، تقويت مي‌كند، كميته همچنين قصد دارد مكانيسم‌هاي مختلفي را براي انجام كار خود در بازه‌هاي زماني كوتاه در نظر بگيرد. در سال هاي آينده

اين كميته اخيراً برنامه‌هايي را براي تنظيم مجدد گروه‌هاي كاري خود تكميل كرد تا به آن اجازه دهد تا تأثيرات هوش مصنوعي بر نيروي كار، عدالت، جامعه و موارد ديگر را بررسي كند. مناطق تمركز جديد NAIAC عبارتند از:

  • آينده AI: پايداري نوآوري در نسل بعدي هوش مصنوعي
  • هوش مصنوعي در كار و نيروي كار
  • مقررات و اقدام اجرايي هوش مصنوعي
  • مشاركت، آموزش و شمول
  • Generative and NextGen AI: Safety and Assurance
  • با رعايت حقوق هوش مصنوعي
  • عرصه بين المللي: همكاري در سياست هوش مصنوعي و راه حل هاي فعال شده با هوش مصنوعي
  • خريد سيستم هاي هوش مصنوعي
  • هوش مصنوعي و اقتصاد

گزارش كامل، شامل تمام توصيه هاي آن، در وب سايت AI.gov موجود است .


برچسب: ،
ادامه مطلب
امتیاز:
 
بازدید:
+ نوشته شده: ۸ تير ۱۴۰۲ساعت: ۰۲:۵۶:۲۷ توسط:عرفان موضوع:

مطالعه تئوري فراپارامتري‌سازي را در شبكه‌هاي عصبي كوانتومي ايجاد مي‌كند توسط آزمايشگاه ملي لوس آلاموس

پيشرفت، هوش مصنوعي كوانتومي را تقويت مي كندفراپارامتري سازي در شبكه هاي عصبي كوانتومي (QNNs). الف) شرح مدار كوانتومي QNN. با داشتن تعداد كم (زياد) پارامترها، فرد قادر نيست (نمي‌تواند) تمام جهات مربوطه را در فضاي هيلبرت كاوش كند، و بنابراين QNN كمتر پارامتريزه مي‌شود (بيش از حد پارامتر). ب) سطح خاكستري مربوط به چشم انداز تابع از دست دادن نامحدود است. يك QNN كمتر پارامتريزه شده، يك برش با ابعاد پايين تابع تلفات را بررسي مي كند (برش 1 بعدي روي خطوط قرمز). در اينجا، بهينه‌ساز مي‌تواند در حداقل‌هاي محلي جعلي (قسمت آبي) كه تأثير منفي بر بهينه‌سازي پارامتر دارد، گرفتار شود. با افزايش تعداد پارامترهاي گذشته از آستانه Mc، مي توان يك برش با ابعاد بالاتر از چشم انداز را كاوش كرد (برش دو بعدي بر روي منطقه سبز). همانطور كه نشان داده شده است، برخي از حداقل هاي محلي جعلي قبلي با نقاط زين (قسمت آبي) مطابقت دارند، و بهينه ساز مي تواند از تله كاذب فرار كند. اعتبار: arXiv DOI: 10.48550/arxiv.2109.11676

يك اثبات نظري نشان مي‌دهد كه تكنيكي به نام فراپارامتري‌سازي عملكرد در يادگيري ماشين كوانتومي را براي برنامه‌هايي كه كامپيوترهاي كلاسيك را مختل مي‌كنند، افزايش مي‌دهد.

 

ديگو گارسيا مارتين، محقق فوق دكترا، گفت: "ما معتقديم كه نتايج ما در استفاده از  براي يادگيري خواص داده هاي كوانتومي، مانند طبقه بندي مراحل مختلف ماده در تحقيقات مواد كوانتومي، كه در  بسيار دشوار است، مفيد خواهد بود. " در آزمايشگاه ملي لوس آلاموس او يكي از نويسندگان مقاله جديدي از يك تيم لوس آلاموس در مورد اين تكنيك است كه در Nature Computational Science منتشر شده است .

گارسيا مارتين در سال 2021 به عنوان دانشجوي فارغ التحصيل از دانشگاه خودمختار مادريد روي اين تحقيق در مدرسه تابستاني محاسبات كوانتومي آزمايشگاه كار كرد.

يادگيري ماشيني يا هوش مصنوعي معمولاً شامل آموزش شبكه هاي عصبي براي پردازش اطلاعات - داده ها - و يادگيري نحوه حل يك كار معين است. به طور خلاصه، مي توان  را به عنوان جعبه اي با دستگيره ها يا  در نظر گرفت كه داده ها را به عنوان ورودي مي گيرد و خروجي اي توليد مي كند كه به پيكربندي دستگيره ها بستگي دارد.

گارسيا مارتين گفت: «در طول مرحله آموزش، الگوريتم با يادگيري اين پارامترها را به روز مي كند و سعي مي كند تنظيمات بهينه آنها را پيدا كند. پس از تعيين پارامترهاي بهينه، شبكه عصبي بايد بتواند آنچه را كه از نمونه هاي آموزشي آموخته است به نقاط داده جديد و ناديده قبلي تعميم دهد.

هم هوش مصنوعي كلاسيك و هم هوش مصنوعي كوانتومي در هنگام آموزش پارامترها يك چالش مشترك دارند، زيرا الگوريتم مي تواند در آموزش خود به پيكربندي كمتر از حد بهينه برسد و متوقف شود.

يك جهش در عملكرد

پارامترسازي بيش از حد، يك مفهوم شناخته شده در يادگيري ماشين كلاسيك است كه پارامترهاي بيشتر و بيشتري را اضافه مي كند، مي تواند از اين توقف جلوگيري كند.

مفاهيم فراپارامتري‌سازي در مدل‌هاي يادگيري ماشين كوانتومي تاكنون به خوبي درك نشده بود. در مقاله جديد، تيم Los Alamos يك  براي پيش‌بيني تعداد بحراني پارامترهايي ايجاد مي‌كند كه در آن يك مدل يادگيري ماشين كوانتومي بيش از حد پارامتري مي‌شود. در يك نقطه بحراني خاص، افزودن پارامترها باعث جهش در عملكرد شبكه مي شود و آموزش مدل به طور قابل توجهي آسان تر مي شود.

مارتين لاروكا، نويسنده اصلي اين مقاله و محقق فوق دكترا در لس آلاموس توضيح داد: «با ايجاد نظريه اي كه زيربناي پارامترسازي بيش از حد در شبكه هاي عصبي كوانتومي است، تحقيقات ما راه را براي بهينه سازي فرآيند آموزش و دستيابي به عملكرد پيشرفته در كاربردهاي عملي كوانتومي هموار مي كند  

با بهره گيري از جنبه هاي مكانيك كوانتومي مانند درهم تنيدگي و برهم نهي،  نويد سرعت بسيار بيشتر يا مزيت كوانتومي را نسبت به يادگيري ماشين در رايانه هاي كلاسيك ارائه مي دهد.

اجتناب از تله ها در چشم انداز يادگيري ماشيني

براي نشان دادن يافته‌هاي تيم لوس آلاموس، ماركو سرزو، دانشمند ارشد روي مقاله و نظريه‌پرداز كوانتومي در آزمايشگاه، آزمايشي  توصيف كرد كه در آن يك كوهنورد به دنبال بلندترين كوه در يك منظره تاريك، روند آموزش را نشان مي‌دهد. كوهنورد فقط مي تواند در جهات خاصي قدم بگذارد و پيشرفت آنها را با اندازه گيري ارتفاع با استفاده از يك سيستم GPS محدود ارزيابي مي كند.

سرزو گفت: در اين قياس، تعداد پارامترهاي مدل با جهت هاي موجود براي حركت كوهنورد مطابقت دارد. وي گفت: يك پارامتر امكان حركت به جلو و عقب را فراهم مي كند، دو پارامتر امكان حركت جانبي و غيره را فراهم مي كند. يك چشم انداز داده احتمالاً بر خلاف دنياي كوهنورد فرضي ما بيش از سه بعد خواهد داشت.

با پارامترهاي بسيار كم، واكر نمي تواند به طور كامل كاوش كند و ممكن است يك تپه كوچك را با بلندترين كوه اشتباه بگيرد يا در يك منطقه صاف كه هر قدمي بيهوده به نظر مي رسد گير كند. با اين حال، با افزايش تعداد پارامترها، واكر مي تواند در جهات بيشتري در ابعاد بالاتر حركت كند. آنچه در ابتدا به عنوان يك تپه محلي به نظر مي رسيد ممكن است تبديل به يك دره مرتفع بين قله ها شود. با پارامترهاي اضافي، كوهنورد از به دام افتادن جلوگيري مي كند و قله واقعي يا راه حل مشكل را پيدا مي كند.

سايت تبليغات كسب وكار


برچسب: ،
ادامه مطلب
امتیاز:
 
بازدید:
+ نوشته شده: ۸ تير ۱۴۰۲ساعت: ۰۲:۵۵:۱۰ توسط:عرفان موضوع:

DeepMind از RoboCat خودآموز رونمايي كرد

اعتبار: DeepMind

يكي از تحسين‌كنندگان ناشناخته گربه‌سانان يك بار اظهار داشت: «گربه‌ها و رايانه‌ها هر دو يك چيز مشترك دارند و آن اينكه هر دو بر اينترنت حكومت مي‌كنند».

 

در DeepMind گوگل، محققان اخيراً  با رباتي به نام RoboCat ازدواج كردند و در حالي كه هنوز بر اينترنت حاكم نيست، انتظار مي‌رود كه جهشي بزرگ به دنياي آينده خودكارهاي خودآموز داشته باشد.

تيم DeepMind متشكل از بيش از 30 محقق، با استفاده از فناوري مشابه در مدل‌هاي زباني بزرگ، گفت كه با يك گربه روباتيك پيشرفت كرده‌اند كه نه تنها كارهاي جديد را به سرعت ياد مي‌گيرد، بلكه مي‌تواند عملكرد خود را با ساخت داده‌هاي عملكرد خود بهبود بخشد.

 DeepMind در مقاله اي كه در سرور preprint arXiv منتشر شده است، گفت: "RoboCat چرخه آموزشي خوبي دارد . " "هرچه كارهاي جديد بيشتري ياد بگيرد، در يادگيري كارهاي جديد بيشتر بهتر مي شود."

تا به حال، ربات ها به طور كلي وظايف خاص و از پيش برنامه ريزي شده را انجام مي دادند. با معرفي مدل‌هاي بزرگ زبان، مجموعه مهارت‌هاي روبات‌ها شروع به گسترش كردند، اگرچه آموزش حجم عظيمي از داده‌ها به زمان زيادي نياز داشت.

DeepMind گفت Robocat، با اين حال، مي تواند به سرعت كارهاي جديد، مانند قرار دادن قطعات پازل به شكل هاي مختلف در سوراخ هاي مناسب يا قرار دادن ميوه ها در يك كاسه را بياموزد. سپس قادر به پيشرفت و انجام  «بر اساس مجموعه داده‌هاي ميليون‌ها مسير» از وظايف قبلي و داده‌هاي جديد خود توليد شد.

محققان مي‌گويند: «اين پيشرفت‌ها به دليل گستردگي روبه رشد روبوكت بود، شبيه به اين كه چگونه افراد در حين تعميق يادگيري خود در يك حوزه خاص، طيف متنوع‌تري از مهارت‌ها را توسعه مي‌دهند.

همانطور كه RoboCat تكنيك خود را بهبود بخشيد، رفتارهاي جديد آموخته شده آن به ربات هاي ديگري منتقل شد كه به نوبه خود بر اساس آن مهارت ها ساخته شدند.

اين ربات عملكرد خود را در بين 100 تا 1000 نمايش از يك بازوي رباتيك كنترل شده توسط انسان تنظيم كرد.  آموزش داده شدند و داده‌ها در مجموعه دستورالعمل‌هاي عمومي وارد شدند.

در حالي كه RoboCat در ابتدا در مقابله با وظايفي كه قبلاً ياد نگرفته بود به 36 درصد موفقيت دست يافت، در طول زمان عملكرد خود را بهبود بخشيد. از طريق خودآموزي،  آن دو برابر شد.

محققان DeepMind مي گويند: «RoboCat بسيار سريعتر از ساير مدل هاي پيشرفته ياد مي گيرد. "اين مي تواند يك كار جديد را با حداقل 100 نمايش انجام دهد زيرا از مجموعه داده هاي بزرگ و متنوعي استخراج مي شود."

اين توسعه به عنوان يك گام بزرگ در جهت تسريع تحقيقات رباتيك در نظر گرفته مي شود، "زيرا نياز به آموزش تحت نظارت انسان را كاهش مي دهد و گام مهمي در جهت ايجاد يك ربات همه منظوره است."

مقاله "RoboCat: A Self- Improving Foundation for Robotic Manipulation" در 20 ژوئن منتشر شد.

آيا چنين روبات‌هايي در نهايت نياز به مداخله انسان را كنار خواهند گذاشت؟

اين سوال 100 سال پيش در نمايشنامه 1921 "RUR: ربات هاي جهاني راسوم"، داستاني از نويسنده چك، كارل چاپك مطرح شد.

اين نمايش كارخانه اي را تصور مي كرد كه انسان نماهاي مصنوعي را ايجاد مي كرد كه به طور مداوم كار مي كردند و در نهايت هزينه هاي نيروي كار را 80٪ كاهش داد. كلمه  براي اولين بار در اين نمايشنامه بعد از كلمه چكي "robota" كه به معناي "كار اجباري توسط رعيت" بود، استفاده شد.

در پايان، روبات ها شورش كردند و بشريت را خاموش كردند.

ما مي توانيم اميدوار باشيم كه RoboCat ها دوستانه تر باشند.

اگرچه بايد به ياد داشته باشيم كه ويل راجرز، طنزپرداز يك بار گفته است: "اجازه دادن گربه از كيف بسيار ساده تر از بازگرداندن آن است."


برچسب: ،
ادامه مطلب
امتیاز:
 
بازدید:
+ نوشته شده: ۸ تير ۱۴۰۲ساعت: ۰۲:۵۴:۰۴ توسط:عرفان موضوع:

آيا هوش مصنوعي واقعاً بشريت را نابود مي كند؟

گروه Stop Killer Robots به صراحت سناريوي ترميناتور را رد كرده است.

هشدارها از همه زوايا مي آيند: هوش مصنوعي خطري وجودي براي بشريت به همراه دارد و قبل از اينكه خيلي دير شود بايد در غل و زنجير قرار گيرد.

 

اما اين سناريوهاي فاجعه چيست و چگونه ماشين ها قرار است بشريت را از بين ببرند؟

گيره هاي عذاب

اكثر سناريوهاي فاجعه از يك مكان شروع مي‌شوند: ماشين‌ها از ظرفيت‌هاي انساني پيشي مي‌گيرند، از كنترل انسان فرار مي‌كنند و از خاموش شدن خودداري مي‌كنند.

يوشوا بنجيو، استاد هوش مصنوعي، در رويدادي در اين ماه گفت: زماني كه ماشين‌هايي داريم كه هدف خود را حفظ مي‌كنند، با مشكل مواجه مي‌شويم.

اما از آنجايي كه اين ماشين‌ها هنوز وجود ندارند، تصور اينكه چگونه مي‌توانند بشريت را نابود كنند، اغلب به فلسفه و  واگذار مي‌شود .

فيلسوف نيك بوستروم در مورد يك "انفجار هوشمند" نوشته است كه او مي گويد زماني اتفاق مي افتد كه ماشين هاي فوق هوشمند شروع به طراحي ماشين هاي خود كنند.

او اين ايده را با داستان يك هوش مصنوعي فوق هوشمند در يك كارخانه گيره كاغذ به تصوير كشيد.افزايش مشتري

هدف نهايي به حداكثر رساندن خروجي گيره كاغذ به هوش مصنوعي داده شده است و بنابراين "ابتدا زمين و سپس قطعات بزرگي از جهان قابل مشاهده را به گيره كاغذ تبديل مي كند".

ايده هاي بوستروم توسط بسياري به عنوان علمي تخيلي رد شده است، به ويژه به اين دليل كه او به طور جداگانه استدلال كرده است كه انسانيت يك شبيه سازي كامپيوتري است و از نظريه هاي نزديك به اصلاح نژادي حمايت مي كند.

فيلسوف نيك بوستروم ايده يك هوش مصنوعي فوق هوشمند را در سر داشت كه زمين را به گيره كاغذ تبديل مي كرد.نيك بوستروم، فيلسوف، ايده يك هوش مصنوعي فوق‌هوشمند را در سر داشت كه زمين را به گيره كاغذ تبديل مي‌كرد.

او همچنين اخيراً پس از افشاي پيام نژادپرستانه اي كه در دهه 1990 ارسال كرده بود، عذرخواهي كرد.

با اين حال، افكار او در مورد هوش مصنوعي بسيار تأثيرگذار بوده و الهام بخش الون ماسك و پروفسور استيون هاوكينگ بوده است.

نابودگر

اگر قرار باشد ماشين هاي فوق هوشمند بشريت را نابود كنند، مطمئناً به شكل فيزيكي نياز دارند.

سايبورگ چشم قرمز آرنولد شوارتزنگر كه از آينده براي پايان دادن به مقاومت انساني توسط يك هوش مصنوعي در فيلم "نابودگر" فرستاده شده است، تصويري اغوا كننده به ويژه براي رسانه ها به نمايش گذاشته است.

اما كارشناسان اين ايده را رد كرده اند.

گروه كمپين Stop Killer Robots در گزارشي در سال 2021 نوشت: "اين مفهوم علمي تخيلي بعيد است در دهه هاي آينده به واقعيت تبديل شود."

با اين حال، اين گروه هشدار داده است كه دادن قدرت به ماشين ها براي تصميم گيري در مورد زندگي و مرگ يك خطر وجودي است.

كرستين داوتنهان، متخصص ربات، از دانشگاه واترلو در كانادا، اين ترس ها را كم اهميت جلوه داد.

استوارت راسل، محقق هوش مصنوعي، معتقد است كه روبات‌هاي قاتل واقعي كوچك، هوابرد و به صورت دسته جمعي خواهند بود.استوارت راسل، محقق هوش مصنوعي، معتقد است ربات‌هاي قاتل واقعي كوچك، معلق در هوا هستند و به صورت دسته جمعي عرضه مي‌شوند.

او به خبرگزاري فرانسه گفت كه بعيد است كه هوش مصنوعي به ماشين‌ها قابليت‌هاي استدلالي بالاتري بدهد يا آنها را با تمايل به كشتن همه انسان‌ها آغشته كند.

او گفت: "روبات ها شر نيستند"، اگرچه او اذعان داشت كه برنامه نويسان مي توانند آنها را وادار به انجام كارهاي شيطاني كنند.

مواد شيميايي مرگبارتر

در يك سناريوي علمي تخيلي كمتر آشكار، «بازيگران بد» از هوش مصنوعي براي ايجاد سموم يا ويروس‌هاي جديد و انتشار آنها در جهان استفاده مي‌كنند.

مدل هاي زبان بزرگ مانند GPT-3 كه براي ايجاد ChatGPT استفاده شد، به نظر مي رسد در اختراع عوامل شيميايي جديد وحشتناك بسيار خوب هستند.

گروهي از دانشمندان كه از هوش مصنوعي براي كمك به كشف داروهاي جديد استفاده مي كردند، آزمايشي را انجام دادند كه در آن هوش مصنوعي خود را براي جستجوي مولكول هاي مضر تغيير دادند.

همانطور كه در مجله Nature Machine Intelligence گزارش شده است، آنها موفق شدند 40000 عامل بالقوه سمي را در كمتر از شش ساعت توليد كنند.

جوآنا برايسون، كارشناس هوش مصنوعي از مدرسه هرتي در برلين، گفت كه مي‌تواند تصور كند كه كسي راهي براي انتشار سريع‌تر سمي مانند سياه زخم پيدا كند.

او به خبرگزاري فرانسه گفت: «اما اين يك تهديد وجودي نيست. "اين فقط يك سلاح وحشتناك و وحشتناك است."

استيون هاوكينگ در سال 2014 استدلال كرد كه در مقطعي در آينده ماشين هاي فوق هوشمند از توانايي هاي انسان و نهايتاً پيشي خواهند گرفت.استيون هاوكينگ در سال 2014 استدلال كرد كه در مقطعي در آينده ماشين هاي فوق هوشمند از توانايي هاي انسان پيشي خواهند گرفت و در نهايت گونه ما ديگر قادر به رقابت نخواهد بود.

گونه سبقت گرفت

قوانين هاليوود حكم مي كند كه بلاياي دوراني بايد ناگهاني، عظيم و دراماتيك باشند – اما اگر پايان بشريت كند، آرام و قطعي نبود چه؟افزايش مشتري

فيلسوف هاو پرايس در يك ويديوي تبليغاتي براي مركز مطالعات خطر وجودي دانشگاه كمبريج مي گويد: «در تاريك ترين پايان ممكن است گونه ما بدون هيچ جانشيني به پايان برسد.

اما او گفت كه «احتمالات كمتر تيره‌تري» وجود دارد كه در آن انسان‌هايي كه با فناوري پيشرفته تقويت شده‌اند بتوانند زنده بمانند.

او گفت: «گونه‌هاي صرفاً بيولوژيكي در نهايت به پايان مي‌رسند، زيرا هيچ انساني در اطراف وجود ندارد كه به اين فناوري توانمند دسترسي نداشته باشد».

آخرالزمان تصور شده اغلب در قالب اصطلاحات تكاملي تنظيم مي شود.

استيون هاوكينگ در سال 2014 استدلال كرد كه در نهايت گونه ما ديگر قادر به رقابت با ماشين‌هاي هوش مصنوعي نخواهد بود و به بي‌بي‌سي گفت كه مي‌تواند "پايان نسل بشر" باشد.

جفري هينتون، كه اخيراً براي گوگل، كار خود را صرف ساخت  

او اخيراً به شبكه تلويزيوني آمريكايي PBS گفت كه ممكن است "بشريت فقط يك مرحله گذرا در تكامل اطلاعات باشد".

© 2023 AFP

 


برچسب: ،
ادامه مطلب
امتیاز:
 
بازدید:
+ نوشته شده: ۸ تير ۱۴۰۲ساعت: ۰۲:۵۰:۲۰ توسط:عرفان موضوع:

كارشناس حقوقي پيامدهاي حقوق بشر براي فناوري هاي ذهن خواني آينده را زير سوال مي برد

اعتبار: دامنه عمومي Pixabay/CC0

پيشرفت‌هاي اخير با استفاده از هوش مصنوعي براي استخراج افكار معني‌دار از امواج مغزي، مدافعان حقوق بشر و حريم خصوصي را نگران كرده است كه مي‌گويند فناوري با سرعتي سريع‌تر از قانون در حال توسعه است. اين اولين مقاله اي است كه بررسي مي كند كه آيا استراليا براي كاربردهاي بالقوه فناوري هاي عصبي آماده است يا خير.

 افزايش مشتري

پيشرفت‌هاي فناوري اعصاب توجه دانشمندان  ، قانون‌گذاران ملي و سازمان‌هايي مانند شوراي حقوق بشر سازمان ملل را به خود جلب كرده است، و بحث‌هاي شديدي را در مورد اينكه آيا چارچوب‌هاي قانوني داخلي و بين‌المللي كنوني نياز به اصلاح براي پرداختن به مسائل نوظهور، مانند حقوق بشر و حريم خصوصي دارند يا خير، برانگيخته است.

با اين حال، در استراليا موضوع نوروتكنولوژي و تأثير آن بر حقوق بشر مورد توجه قرار نگرفته است، و اگرچه اخلاق در نظر گرفته شده است، اما هنوز تمركز قانون حقوق بشر وجود ندارد.

دكتر آلن مك كي، كارشناس برجسته حقوق نوروتكنولوژي از دانشكده حقوق سيدني، گفت كه اعلاميه جهاني حقوق بشر، كه پيش از شروع فناوري عصبي پيش نويس شده است، ممكن است به طور كامل به اين ظرفيت هاي فناوري نپردازد.

او خواستار اين است كه فناوري عصبي در دستور كار محققان حقوقي، نهادهاي اصلاح قانون، سازمان هاي حقوق بشر و در نهايت پارلمان هاي استراليا قرار گيرد.

اين موضوع در مقاله اول براي اين سوال مطرح شد كه آيا ما براي كاربردهاي بالقوه فناوري‌هاي عصبي و آنچه استراليا بايد در مورد چالش‌هاي حقوق بشر انجام دهد، آماده هستيم. تأليف دكتر مك‌كي، «نوروتكنولوژي و حقوق بشر: تحولات خارج از كشور و چالش براي استراليا» در مجله حقوق بشر استراليا منتشر شده است .

"در حالي كه بايد تاثيرات مثبت فناوري عصبي - مانند كمك به افراد داراي معلوليت و درمان بيماري‌هاي مزمن - به نقض عميق حقوق بشر توجه شود. با توجه به سرعت پيشرفت فناوري، ممكن است قانون‌گذاران بايد فعالانه عمل كنند. دكتر آلن مك‌كي مي‌گويد: قانون را شكل مي‌دهند نه اينكه منفعلانه منتظر دادگاه‌ها براي رسيدگي به مسائل باشند.

دكتر مك كي گفت كه كل اين زمينه در استراليا "تئوري كمتري" دارد و "بدون پاسخي از سوي نهادهاي نظارتي/حقوق بشري".

از آنجايي كه انسان ها به ادغام با ماشين ها ادامه مي دهند، مهم است كه جنبه منفي به تعويق انداختن بحث در مورد فناوري عصبي را در نظر بگيريم.

نظارت مستقيم بر فعاليت هاي عصبي طيفي از مسائل را مطرح مي كند كه آشكارترين آنها حريم خصوصي است. در حالي كه ما بسياري از حريم خصوصي خود را به صورت آنلاين از دست داده ايم، دسترسي مستقيم عصبي نسبت به مسائل مربوط به حريم خصوصي مرتبط با داده هاي جمع آوري شده از رفتار رسانه هاي اجتماعي نگران كننده تر است.

همانطور كه اخيراً در مطالعه‌اي در دانشگاه تگزاس نشان داده شد، شركت‌كنندگان در يك اسكنر تصويربرداري  (fMRI) به پادكست‌ها گوش دادند و داده‌هايي را توليد كردند كه براي آموزش مدلي با هدف رمزگشايي مغزشان استفاده  .

پس از آموزش مدل، شركت‌كنندگان دوباره زير اسكنر رفتند و به داستان جديدي گوش دادند كه براي توليد داده‌هاي آموزشي استفاده نشده بود. همانطور كه آنها گوش مي دادند، اسكنر fMRI سطوح اكسيژن خون را در قسمت هايي از مغز آنها ثبت كرد.

سپس محققان از يك مدل زبان بزرگ مانند GPT-4 OpenAI و Bard Google استفاده كردند تا الگوهاي فعاليت  را با كلمات و عباراتي كه شركت كنندگان شنيده بودند مطابقت دهند.

دكتر شينجي نيشيموتو، متخصص علوم اعصاب در دانشگاه اوزاكا كه در تحقيقات تگزاس شركت نداشت، گفت: "فعاليت مغز نوعي سيگنال رمزگذاري شده است و مدل هاي زبان راه هايي را براي رمزگشايي آن ارائه مي دهند."

دكتر مك كي گفت كه ما بايد نظارت مغزي و مداخله مستقيم مغزي را در زمينه هاي عدالت كيفري، سياسي، محل كار و مصرف كننده در نظر بگيريم. به عنوان مثال، آيا نظارت بر مغز يك مظنون در طول مصاحبه پليس نقض حقوق بشر است؟

شركت آمريكايي Brainwave Science در حال حاضر يك محصول بازجويي عصبي را به بازار عرضه كرده است.

دكتر مك‌كي گفت كه برخي مي‌خواهند و استدلال مي‌كنند كه استفاده از فناوري‌هاي عصبي هوش مصنوعي و دستگاه‌هاي مغزي قابل كاشت، حتي آن‌هايي كه در مغز مجرمان براي تغيير رفتارشان مداخله مي‌كنند، يك چيز مثبت است. اما اين از منظر حقوق بشر نگران كننده است.

در خارج از كشور، با تشكيل گروه هاي حقوق بشر، از جمله بنياد حقوق اعصاب و شبكه حقوق ذهن، اقداماتي براي رسيدگي به اين مسائل صورت گرفته است. اين گروه ها ترديد دارند كه ظرفيت چارچوب بين المللي حقوق بشر بتواند با چالش هاي نوروتكنولوژي مقابله كند.

بنياد حقوق عصبي تلاش مي كند تا شركت ها، دولت ها و سازمان ملل حقوق حريم خصوصي ذهني،  ، اراده آزاد، دسترسي عادلانه به تقويت ذهني و محافظت در برابر تعصب را به رسميت بشناسند.

دكتر مك كي گفت: "مناظره عمومي ممكن است مفيد باشد تا كساني را كه  توليد مي كنند متوجه شوند كه تغييرات قانوني در راه است. همانطور كه چندين موسسه در خارج از كشور متوجه شدند، اكنون بايد بحث شود."

 


برچسب: ،
ادامه مطلب
امتیاز:
 
بازدید:
+ نوشته شده: ۸ تير ۱۴۰۲ساعت: ۰۲:۴۷:۲۳ توسط:عرفان موضوع: