چرا نباید به چت باتها اعتماد کنید؟
تاریخ انتشار: ۴ اسفند ۱۴۰۱ | کد خبر: ۳۷۱۸۵۶۰۷
فرارو- هفته گذشته مایکروسافت و گوگل اعلام کردند که برنامههای مبتنی بر هوش مصنوعی مشابه چت جی پی تی (Chat GPT) را در موتورهای جستجوی خود قرار میدهند برنامهای برای تبدیل نحوه یافتن اطلاعات آنلاین به مکالمه با یک چت بات دانای کل. با این وجود، یک مشکل در اینجا وجود دارد: این مدلهای زبانی اسطورهای بدنام هستند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
به گزارش فرارو به نقل از آتلانتیک، در یک ویدئوی تبلیغاتی چت بات "بارد" ساخت گوگل در مورد نجوم اشتباه فاحشی را مرتکب شد. این چت بات در پاسخگویی بازه زمانی بیش از یک دهه را در مورد پاسخگویی درباره زمان ثبت اولین عکس از سیارهای خارج از منظومه خورشیدی اشتباه کرد. این اشتباه در پاسخگویی باعث شد ارزش سهام شرکت مادر گوگل تا ۹ درصد کاهش یابد.
نمایش زنده "بینگ" که از نسخه پیشرفتهتر چت جی پی تی برخوردار است نیز با اشتباهات شرم آوری همراه بود. حتی در چند ماه گذشته بسیاری معتقد بودند که هوش مصنوعی در نهایت با نام خود عمل خواهد کرد. با این وجود، اکنون محدودیتهای اساسی این فناوری نشان میدهد که اکثر پیش بینیها درباره آن در بدترین خالت علمی – تخیلی و در بهترین حالت یک بهبود تدریجی در فناوری همراه با گردابی از اشکلات برطرف نشده است.
مشکل از زمانی آغاز میشود که شرکتها و کاربران به برنامههایی مانند چت جی پی تی برای تجزیه و تحلیل امور مالی، برنامه ریزی سفر و وعدههای غذایی و یا ارائه اطلاعات اولیه اعتماد میکنند. این مشکل بدان خاطر روی میدهد که ما چت باتها را نه صرفا به عنوان رباتهای جستجوگر بلکه به عنوان چیزی شبیه به مغز قلمداد میکنیم.
مایکروسافت و گوگل به جای وادار کردن کاربران به خواندن سایر صفحات اینترنتی آیندهای را پیشنهاد کردهاند که در آن موتورهای جستجو از هوش مصنوعی برای ترکیب کردن اطلاعات و تبدیل و بسته بندی آن به نثر اولیه مانند اوراکلهای سیلکونی استفاده میکنند. واقعیت آن است که برنامههایی که از آن تحت عنوان "مدلهای زبان بزرگ" یاد میشود و در حال حاضر این تغییر را ایجاد میکنند در تولید جملات ساده عملکرد خوبی دارند، اما در هر مورد دیگری عملکردی بسیار وخشتناک را از خود نشان داده اند.
این مدلها با شناسایی و بازیابی الگوها در زبان مانند یک تصحیح خودکار فوقالعاده قدرتمند کار میکنند. نرمافزاری مانند چت جی پی تی ابتدا حجم عظیمی از دروس، کتب، صفحات ویکیپدیا، روزنامهها و پستهای رسانههای اجتماعی را مورد تجزیه و تحلیل قرار میدهد و سپس از آن دادهها برای پیش بینی واژگان و عبارات استفاده میکند.
این برنامهها زبان موجود را مدل سازی میکنند بدان معنا که نمیتوانند ایدههای تازه ارائه کنند و اتکای این برنامهها به نظم آماری بدان معناست که تمایل دارند نسخههای ارزانتر و تخریب شده اطلاعات اصلی را تولید کنند چیزی شبیه نسخههای معیوب زیراکس.
حتی اگر چت جی پی تی و برنامههای مشابه آن یاد گرفته بودند که واژگان را به خوبی پیش بینی کنند باز هم فاقد مهارت اساسی دیگر بودند. برای مثال، این برنامهها دنیای فیزیکی یا نحوه استفاده از منطق را نمیدانند، در ریاضیات وحشتناک هستند و در اکثر موارد مربوط به جستجو در اینترنت خود قادر به بررسی نیستند. همین دیروز Chat GPT به ما گفت که شش حرف در نام اش وجود دارد!
این برنامههای زبانی چیزهای "جدید" را مینویسند که به آن توهم میگویند، اما میتوان از آن تحت عنوان دروغ نیز یاد کرد. درست مانند تصحیح خودکار در درست کردن حروف این مدلها کل جملات و پاراگرافها را به هم میریزند. گزارش شده که بینگ جدید در پاسخ به پرسش درباره سالها گفته که سال ۲۰۲۲ پس از سال ۲۰۲۳ میلادی از راه میرسد و سپس اعلام کرده که اکنون در سال ۲۰۲۲ به سر میبریم! با توجه به اشکالات موجود سخنگوی مایکروسافت گفته است: "با توجه به آن که این یک پیش نمایش اولیه از بینگ جدید است گاهی اوقات میتواند پاسخهای ناردست یا غیر منتظرهای ارائه دهد. ما در حال تنظیم پاسخهای آن برای ایجاد انسجام و مرتبط ساختن پاسخ به پرسش هستیم".
یکی از سخنگویان گوگل در پاسخ به پرسش مطرح شده از سوی "آتلانتیک" گفته است: "ما در حال بهبود جنبههای مهم بارد هستیم تا اطمینان حاصل کنیم که برای کاربران مان آماده است".
به عبارت دیگر، سازندگان بینگ و بارد جدید علیرغم تبلیغاتی که انجام داده اند خود میدانند که محصولات شان برای استفاده توسط کاربران جهانی آماده نیستند. اگر ذکر این اشتباهات در پاسخگویی و اشکالات موجود در فناوری مبتنی بر هوش مصنوعی برای شما متقاعد کننده نیست این موضوع را در نظر بگیرید که آموزش یک هوش مصنوعی به مقدار زیادی داده و زمان نیاز دارد.
برای مثال، چت جی پی تی از سال ۲۰۲۱ میلادی به این سو در مورد هیچ چیزی آموزش ندیده است و در نتیجه درباره مسائل مرتبط با پس از سال ۲۰۲۱ میلادی هیچ اطلاعاتی ندارد. هم چنین، به روز رسانی هر مدلی با هر دقیقه اخبار اگر ناممکن نباشد اقدامی غیر عملی است. ظاهرا بینگ جدید در مورد اخبار فوری یا رویدادهای ورزشی آتی درخواست کاربر را از طریق موتور جستجوی بینگ قدیمی اجرا میکند و از آن نتایج همراه با هوش مصنوعی برای نوشتن پاسخ استفاده مینماید که چیزی شبیه یک عروسک روسی یا شاید یک مجسمه با روکش طلایی به نظر میرسد: در نتیجه، در بخش زیرین لایه بیرونی و درخشان هوش مصنوعی همان بینگ لکه دار و قدیمی وجود دارد که همگان آن را میشناسیم و هرگز از آن استفاده نمیکنیم.
نکتهای که بر شک و تردیدها میافزاید آن است که مایکروسافت و گوگل چیز زیادی در مورد نحوه عملکرد این ابزارهای جستجوی مبتنی بر هوش مصنوعی نگفته اند. شاید آنان در حال ترکیب نرم افزارهای دیگری برای بهبود قابلیت اطمینان بخشی چت باتها هستند تا نگرانیها را برطرف سازند.
در واقع، دو شرکت بزرگ فناوری در جهان اساسا از کاربران میخواهند که به کار آنان ایمان باشند و اعتماد کنند گویی که خدایان عصر باستان هستند و چت باتهای شان مانند آپولو از طریق یک کاهن در معبد دلفی صحبت میکنند. این باتهای جستجوی مبتنی بر هوش مصنوعی به زودی برای استفاده همگان در دسترس خواهند بود.
با این وجود، ما نباید برای انجام فعالیتهای زندگی مان به این فناوری خودکار در ظاهر شکوهمند اعتماد کنیم. کمتر از یک دهه پیش جهان متوجه شد که فیس بوک کمتر یک شبکه اجتماعی سرگرم کننده و بیشتر یک ماشین تخریب دموکراسی است. در نتیجه، درباره اعتماد به فناوریهای غولهای این عرصه عجله نداشته باشیم.
منبع: فرارو
کلیدواژه: چت جی پی تی مبتنی بر هوش مصنوعی برنامه ها چت جی پی تی چت بات ها مدل ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت fararu.com دریافت کردهاست، لذا منبع این خبر، وبسایت «فرارو» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۱۸۵۶۰۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
معاریو: نتانیاهو واقعیترین خدمتکار بن گویر است
روزنامه صهیونیستی معاریو نوشت که با توجه به اینکه بنیامین نتانیاهو، نخست وزیر رژیم صهیونیستی نوکر ارباب خود ایتمار بن گویر، وزبر امنیت داخلی صهیونیستها شده است، رئیس جدیدی برای این رژیم وجود دارد.
براساس گزارش آر تی، این روزنامه اعلام کرد که بن گویر چند روز پیش در حین خروج از دفتر نخستوزیری در مقابل دوربینها ظاهر شد و با لحنی بدون ترس اعلام کرد: به نخستوزیر هشدار دادم که اگر وارد رفح نشود، توافق با حماس غیرقانونی است.
او افزود: نخست وزیر این صحبتها را شنید و قول داد که اسرائیل وارد رفح خواهد شد و جنگ ادامه دارد و قول داد که هیچ معامله نامشروعی وجود نخواهد داشت.
این روزنامه نبز در واکنش به این سخنان گفت: این سخنان و لحن صدا در دل هر شنونده جایی برای شک و تردید باقی نمیگذارد که نخستوزیر جدیدی در اسرائیل وجود دارد و بنیامین نتانیاهو در عمل نوکر ارباب خود ایتامار بن گویر شده است.
معاریو خاطرنشان کرد: این سوال بدیهی را مطرح میشود که نتانیاهو تا چه حد بیچاره شده است؟. نتانیاهو، علیرغم هزاران اختلاف، میداند که چه میخواهد. او میداند چه چیزی برای مردم مهم و خوب است، اما او بن گویر و بزالل اسموتریچ، وزیر دارایی را نگه میدارد آن هم به دلایل واضحی که فقط برای نتانیاهو خوب است.
روزنامه صهیونیستی در ادامه توضیح داد: مشکل اکثریت مردم، پس از هفت ماه جنگ، این است که به این دولت و رفتار آن اعتماد ندارند، به نخست وزیری اعتقاد ندارند که نظرش را بر اساس منافع سیاسی خود تغییر دهد. به وزرایی مثل اوریت استراک که حاضرند برای دولتی که قادر به حفظ اسرا نیست، اسرا را قربانی کنند اعتماد ندارد.
باشگاه خبرنگاران جوان بینالملل خاورمیانه