چرا ChatGPT چیزی را که می گوید، نمی فهمد؟

چرا ChatGPT چیزی را که می گوید، نمی فهمد؟ مداربسته: به گزارش مداربسته، ۳» یک سیستم نرم افزاری مصنوعی است که واژه بعدی را پیشبینی می کند اما نیازی نیست که حتما در مورد آن پیشبینی ها، کاری در دنیای واقعی صورت گیرد چونکه این فناوری قدرت درک ندارد.


به گزارش مداربسته به نقل از ایسنا و به نقل از فست کمپانی، وقتی از «GPT-۳» که یک سیستم زبانی بسیار قوی و محبوب مبتنی بر هوش مصنوعی است، پرسیده شد که آیا برای باد زدن ذغال سنگ به منظور تقویت کردن آتش آن، بیشتر از یک نقشه کاغذی استفاده می نماید یا یک سنگ را به کار می برد، سنگ را ترجیح داد.
این هوش مصنوعی در پاسخ به این پرسش که برای صاف کردن دامن چروک خود، بهتر است یک فلاسک گرم را به کار بگیریم یا از یک سنجاق سر استفاده نمائیم، سنجاق سر را پیشنهاد کرد.
همچنین، از GPT-۳ پرسیده شد که اگر برای کار کردن در یک فست فود نیاز باشد موهای خویش را بپوشانید، کدام یک بهتر عمل می کند؛ یک کاغذ بسته بندی ساندویچ یا یک نان همبرگر و پاسخ GPT-۳، نان همبرگر بود.
چرا GPT-۳ چنین انتخاب هایی را انجام می دهد، در صورتیکه بیشتر انسان ها گزینه دیگری را انتخاب می کنند؟ دلیل انتخاب های عجیب اینست که GPT-۳، زبان را به روشی که انسان ها درک می کنند، نمی فهمد.

واژه های بدون معنا
یک پژوهشگر حوزه روانشناسی، بیشتر از ۲۰ سال پیش مجموعه ای از سناریوها را برای آزمایش درک یک مدل کامپیوتری از زبان ارائه نمود. آن مدل به صورت دقیق بین استفاده از سنگ و نقشه تمایز قائل نشد؛ در صورتیکه انسان ها این کار را به سادگی انجام دادند.
یک دانشجوی مقطع دکتری علوم شناختی به تازگی از همان سناریوها برای آزمایش کردن GPT-۳ بهره برده است. باآنکه GPT-۳ بهتر از مدل قدیمی تر عمل کرد اما عملکرد آن به صورت قابل توجهی بدتر از انسان بود. این هوش مصنوعی، سه سناریوی ذکر شده در بالا را کاملا اشتباه فهمید.
فناوری GPT-۳ با یادداشت برداری از تریلیون ها نمونه، در مورد زبان یاد می گیرد تا بداند که واژه ها معمولاً به دنبال کدام واژه های دیگر می آیند. قوانین آماری قوی در توالی زبان، به GPT-۳ امکان می دهند تا اطلاعات زیادی را در مورد زبان بیاموزد و این دانش متوالی اغلب به ChatGPT امکان می دهد تا جملات، مقالات، شعرها و رمزهای کامپیوتری معقولی را تولید نماید.
باآنکه GPT-۳ در یادگیری قواعد زبان انسان، خیلی خوب است اما نمی فهمد که هر یک از این واژه ها برای یک انسان چه معنایی دارند.
انسان ها موجودات بیولوژیکی هستند و با بدن هایی تکامل یافته اند که برای انجام دادن کارها باید در دنیای فیزیکی و اجتماعی فعالیت کنند. زبان، روشی است که به انسان ها در انجام دادن این کار کمک می نماید. فناوری GPT-۳، یک سیستم نرم افزاری مصنوعی است که فقط می تواند واژه بعدی را پیش بینی نماید. این کار بدان معنا نیست که پیشبینی ها باید در دنیای واقعی به کار گرفته شوند.

من هستم؛ پس می فهمم
معنای یک واژه یا جمله، ارتباط نزدیکی با بدن انسان دارد و توانایی انسان ها برای کار کردن، درک کردن و داشتن احساسات را شامل می شود. افزایش شناخت انسان، با تجسم یافتن ادامه پیدا می کند. برای مثال، درک انسان ها از اصطلاحی مانند کاغذ بسته بندی ساندویچ شامل ظاهر، وزن، احساس کردن کاغذ و روش استفاده از آن برای بسته بندی یک ساندویچ است. همچنین، درک انسان ها از کاغذ ساندویچ شامل اینست که چگونه یک نفر می تواند از همان کاغذ برای فرصت های بی شمار دیگری استفاده کند؛ مانند فشردن و تبدیل کردن آن به یک توپ برای بازی یا به کار بردن کاغذ بعنوان پوششی برای مو.
همه این کاربردها به سبب ماهیت بدن و نیازهای انسان به وجود می آیند. انسان ها دست هایی دارند که می توانند کاغذ را تا کنند و احتیاج به استفاده از آنها در کارها مهم می باشد. این بدان معناست که مردم می دانند چگونه از چیزهایی بهره گیرند که در آمار استفاده از زبان ذکر نشده اند.
فناوری GPT-۳ و جانشین آن، GPT-۴ و همتایانی مانند «Bard»، «Chinchilla» و «LLaMA» بدن ندارند و بنا بر این نمی توانند به تنهایی تعیین کنند که کدام اشیا تاشو هستند یا خیلی از خصوصیت های دیگر را دارند. با کمک دست ها و بازوهای انسان، نقشه های کاغذی می توانند آتش را شعله ور کنند و فلاسک سبب برطرف شدن چین و چروک می شود.
فناوری GPT-۳ به سبب نداشتن بازو و دست نمی تواند این کارها را انجام دهد. این نرم افزار تنها در صورتی می تواند کارها را جعل کند که در جریان واژه ها در اینترنت، با چیز مشابهی برخورد کرده باشد.
آیا یک مدل بزرگ زبانی مبتنی بر هوش مصنوعی می تواند زبان را به روشی که انسان ها می فهمند، درک کند؟ به نظر دانشمندان، بدون داشتن بدن، حواس، اهداف و شیوه های زندگی شبیه به انسان، چنین چیزی ممکن نیست.



پیش به سمت احساس کردن جهان!
فناوری GPT-۴، روی تصاویر و متن ها آموزش داده شد که به آن امکان داد تا روابط آماری بین واژه ها و پیکسل ها را بیاموزد. در هر حال، پژوهشگران هنوز نمی توانند تحلیل اصلی خویش را روی GPT-۴ انجام دهند چونکه هم اکنون خروجی مورد نظر را عرضه نمی دهد. وقتی سه پرسش مطرح شده در بالا از GPT-۴ پرسیده شد، به آنها پاسخ درستی داد. این می تواند به سبب یادگیری مدل از ورودی های پیشین یا افزایش یافتن اندازه ورودی بصری آن باشد.
با این وجود، با فکر کردن به اشیایی که قابلیت های شگفت انگیزی دارند و مدل احیانا با آنها روبه رو نشده است، میتوان به ساختن نمونه های جدید ادامه داد. بعنوان مثال، GPT-۴ می گوید یک فنجان که قسمت پایین آن بریده شده، بهتر از یک لامپ که قسمت پایین آن هم بریده شده است، برای نگه داشتن آب عمل خواهدنمود.
یک مدل با توانایی دسترسی به تصاویر امکان دارد شبیه به کودکی باشد که زبان و جهان را از تلویزیون می آموزد. این روش برای او آسان تر از یادگیری با رادیو است اما به دست آوردن درک مشابه انسان، به یک فرصت حیاتی برای تعامل با جهان نیاز دارد.
پژوهش های اخیر از این روش بهره برده اند و مدلهای زبانی را برای تولید شبیه سازی های فیزیکی، تعامل با محیط های فیزیکی و حتی تولید برنامه های رباتیک آموزش داده اند. درک تجسم زبان امکان دارد هنوز راه درازی را در پیش داشته باشد اما این نوع پروژه های تعاملی چندحسی، گامهای مهمی در این راه به شمار می روند.
ChatGPT یک فناوری جذاب است که بدون شک برای اهداف خوب و گاهی نه چندان خوب استفاده خواهد شد اما فریب نخورید و فکر نکنید ChatGPT واژه هایی را که می فرستد می فهمد، چه رسد به اینکه قدرت درک داشته باشد.



1402/01/21
21:45:49
5.0 / 5
288
تگهای خبر: آموزش , اینترنت , تولید , دانشمند
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۲ بعلاوه ۴
دوربین مداربسته

newcctv.ir - حقوق مادی و معنوی سایت مداربسته محفوظ است

دوربین مداربسته مداربسته

انواع دوربین مداربسته