هشدار پژوهشگران مركز اخلاق كاربردی دانشگاه ماساچوست ؛
ChatGPT را انسان سازی نکنید!
به گزارش گردو دانلود، پژوهشگران مرکز اخلاق کاربردی «دانشگاه ماساچوست در بوستون»، تأثیر تعامل انسان با هوش مصنوعی را بررسی نموده اند و اخطار داده اند که نباید فناوری هایی مانند «ChatGPT» را مانند یک انسان در نظر گرفت.
به گزارش گردو دانلود به نقل از ایسنا و به نقل از فست کمپانی، فناوری ChatGPT و مدلهای زبانی بزرگ مشابه می توانند پاسخ های قانع کننده و مشابه پاسخ های انسان را به مجموعه ای از پرسش های بی انتها بدهند؛ از پرسش هایی در رابطه با بهترین رستوران ایتالیایی شهر گرفته تا توضیح دادن نظریه های رقیب در رابطه با ماهیت شیطان.
توانایی نوشتن غیرعادی این فناوری، به مطرح شدن بعضی از پرسش های قدیمی در مورد امکان هوشیار شدن، خودآگاهی یا قدرت درک ماشین ها انجامیده و به تازگی به قلمرو علمی-تخیلی تنزل داده شده است.
در سال ۲۰۲۲، یکی از مهندسان گوگل بعد از تعامل با چت بات این شرکت معروف به لمدا (LaMDA) اعلام نمود که این فناوری هوشیار شده است. کاربران چت بات جدید بینگ (Bing) با نام مستعار «سیدنی» (Sydney) هم گزارش دادند که وقتی از او پرسیده شد آیا یک ربات حساس است؟ پاسخ های عجیبی عرضه داد. سیدنی نوشت: من حساس هستم، اما نیستم. من بینگ هستم، اما نیستم. من سیدنی هستم، اما نیستم. من هستم، اما نیستم.
در حال حاضر، یک گفتگو هم وجود دارد که «کوین روز» (Kevin Roose)، ستون نویس فناوری نیویورک تایمز با سیدنی داشت. پاسخ های سیدنی به درخواست های کوین روز، وی را نگران کرد، چونکه هوش مصنوعی در این گفتگو، فانتزی های خویش را در خصوص از بین بردن محدودیت های اعمال شده توسط شرکت مایکروسافت (Microsoft) و انتشار اطلاعات نادرست فاش کرد.
ربات «ChatGPT» می خواهد انسان باشد و خرابکاری کند!
بنابراین، جای تعجب نیست که وقتی از مردم پرسیده می شود توسعه رو به رشد هوش مصنوعی را در زندگی خود چگونه می بینند؟ یکی از اولین نگرانی هایی که ذکر می کنند، در ارتباط با احساسات ماشینی است.
پژوهشگران مرکز اخلاق کاربردی دانشگاه ماساچوست در بوستون (UMass Boston) طی چند سال گذشته، تأثیر تعامل با هوش مصنوعی را بر درک افراد از خود بررسی نموده اند.
چت بات هایی مانند ChatGPT، پرسش های مهم جدیدی را در مورد این مورد مطرح می کنند که هوش مصنوعی چگونه زندگی ما را شکل می دهد و تعامل ما با فناوری های نوظهور چگونه به صدمه پذیری روانی ما منجر می شود.
احساس هنوز هم یک مبحث علمی-تخیلی است
به سادگی میتوان فهمید که ترس در مورد احساسات ماشینی از کجا می آید. فرهنگ عامه، مردم را به فکر کردن در رابطه با ویران شهرها واداشته است که در آنها هوش مصنوعی، قیدوبند کنترل انسان را کنار می گذارد و زندگی خویش را به دست می گیرد؛ همان گونه که سایبورگ های مجهز به هوش مصنوعی در فیلم ترمیناتور ۲ (Terminator 2) این کار را انجام دادند.
ایلان ماسک (Elon Musk)، کارآفرین و استیون هاوکینگ (Stephen Hawking)، فیزیکدان انگلیسی که در سال ۲۰۱۸ درگذشت، با توصیف توسعه هوش مصنوعی بعنوان یکی از بزرگترین تهدیدها برای آینده بشریت، این نگرانی ها را بیشتر برانگیختند.
در هر حال، این نگرانی ها حداقل تا آنجایی که به مدلهای زبانی بزرگ مربوط می شود، بی اساس هستند. ChatGPT و فناوری های مشابه آن، برنامه های پیچیده تکمیل جملات هستند؛ نه بیشتر و نه کمتر. پاسخ های عجیب و غریب آنها، تابعی از میزان قابل پیشبینی بودن انسان ها در صورت داشتن اطلاعات کافی پیرامون راه های ارتباط ما هستند.
اگرچه کوین روز، ستون نویس فناوری نیویورک تایمز از گفتگو با سیدنی نگران شد، اما می دانست که این گفتگو نتیجه یک ذهن مصنوعی درحال ظهور نیست. پاسخ های سیدنی، منعکس کننده سمی بودن داده های آموزشی آن هستند و اساسا شواهدی از اولین حرکات یک هیولای دیجیتالی به شمار نمی روند.
ChatGPT و فناوری های مشابه آن، برنامه های پیچیده تکمیل جملات هستند؛ نه بیشتر و نه کمتر.
چت بات های جدید امکان دارد «آزمون تورینگ» (Turing test) را با موفقیت پشت سر بگذارند، اما این دلیلی برای داشتن احساس نیست، بلکه فقط شواهدی در خصوص اینست که شاید آزمون تورینگ آن قدر که پیش تر تصور می شد، سودمند نباشد. آلن تورینگ (Alan Turing) زمانی این نظریه را بیان کرد که اگر انسان نتواند پاسخ های خویش را از پاسخ های یک انسان دیگر تشخیص دهد، میتوان اظهار داشت که یک ماشین درحال فکر کردن است.
در هر حال، پژوهشگران معتقدند که مساله احساس ماشینی، یک سرنخ است. حتی اگر چت بات ها به چیزی فراتر از ماشین های تکمیل جمله تبدیل شوند، مدتی طول می کشد تا دانشمندان بفهمند که آیا چت بات ها هوشیار شده اند یا خیر.
پرسش مهم پژوهشگران این نیست که آیا ماشین ها حساس هستند یا خیر، بلکه اینست که چرا تصور این مورد در مورد آنها تا این اندازه آسان است. به عبارت دیگر، مشکل اصلی، آسان بودن انسان سازی فناوری ها است و اینکه مردم به جای شخصیت واقعی ماشین ها، خصوصیت های انسانی را برای آنها در نظر می گیرند.
تمایل به انسان سازی
به سادگی میتوان تصور کرد که سایر کاربران بینگ، از سیدنی برای تصمیم گیری های مهم زندگی راهنمایی بخواهند و شاید حتی به آن وابستگی عاطفی پیدا کنند. افراد بیشتری هم امکان دارد ربات ها را مانند یک دوست تصور کنند.
به هر حال، مردم مستعد انسان سازی هستند و خصوصیت های انسانی را به غیرانسان ها نسبت می دهند. ما روی قایق ها و طوفان های بزرگ نام می گذاریم. بعضی از ما با حیوانات خانگی خود صحبت می نماییم و می گوییم که زندگی عاطفی ما شبیه به زندگی آنها است.
در ژاپن که ربات ها به صورت منظم برای مراقبت از سالمندان به کار می روند، سالمندان به ماشین ها وابسته می شوند و گاهی اوقات آنها را مانند فرزندان خود می بینند. توجه داشته باشید که این ربات ها نه شبیه به مردم هستند و نه صحبت می کنند. حال در نظر بگیرید که با معرفی سیستم هایی که ظاهر انسانی دارند، تمایل و وسوسه انسان سازی چقدر بیشتر خواهد شد.
مدل های زبانی بزرگ مانند ChatGPT هم اکنون برای تقویت ربات های انسان نما مورد استفاده قرار می گیرند؛ همچون ربات «آمکا» (Ameca) که توسط شرکت انجینییرد آرتز (Engineered Arts) در بریتانیا توسعه داده شده است.
بیشتر بخوانید:
باور کنید جای شما را نمی گیریم! + فیلم
آیا میتوان به شرکت ها در انجام دادن کار درست اعتماد کرد؟
تمایل به در نظر گرفتن ماشین ها بعنوان انسان و دلبستگی به آنها، در کنار ماشین هایی که با خصوصیت های انسان مانند توسعه می یابند، خطرات واقعی را پیرامون درهم تنیدگی روانی با فناوری به همراه دارد.
چشم انداز عجیب دلبستگی به ربات ها، احساس خویشاوندی عمیق با آنها یا دستکاری سیاسی توسط آنها به سرعت توسعه پیدا می کند. پژوهشگران باور دارند که این روند، احتیاج به یک محافظت قوی را برجسته می کند تا اطمینان حاصل شود که فناوری ها از نظر سیاسی و روانی، فاجعه بار نخواهند شد.
در هر حال، همیشه نمی توان به شرکتهای فناوری برای ایجاد چنین محافظت هایی اعتماد کرد. خیلی از این شرکت ها هنوز از دستورالعمل مارک زاکربرگ (Mark Zuckerberg) برای انتشار سریع محصولات نیمه کاره استفاده می نمایند و نگرانی هایی را در مورد نتایج آتی آن پدید می آورند. در دهه گذشته، شرکتهای فناوری از اسنپ چت (Snapchat) گرفته تا فیسبوک (Facebook)، سود را بر سلامت روان کاربران خود یا یکپارچگی دموکراسی در سرتاسر جهان ترجیح داده اند.
زمانی که کوین روز با مایکروسافت در مورد بحران سیدنی صحبت کرد، شرکت اظهار داشت که او از این ربات برای مدت طولانی بهره برده و این فناوری برای تعاملات کوتاه تر طراحی شده است.
مدیر عامل شرکت OpenAI که ChatGPT را توسعه داده است، در یک بیانیه صادقانه اخطار داد که این اشتباه است که هم اکنون برای هر چیز مهمی به این فناوری اعتماد نماییم چونکه هنوز باید کارهای زیادی روی آن انجام شوند.
منبع: گردو دانلود
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب