تشابه ساختار تفکر هوش مصنوعی و انسان ثابت شد
به گزارش مداربسته، پژوهشی مشترک میان دانشگاه های هاروارد، براون و توبینگن، شباهت الگوی تفکر هوش مصنوعی و انسان را اثبات نموده است.
به گزارش مداربسته به نقل از مهر؛ در سالهای اخیر، پیشرفت شگرف مدلهای زبانی و بینایی هوش مصنوعی مبتنی بر معماری ترنسفورمر (Transformer) مرزهای درک ما از ظرفیتهای این فناوری نوظهور را جابه جا کرده است. معماری ترنسفورمر که مبنای مدلهای پیشرفته ای از جمه «GPT» و «Vision Transformer» است، توانسته درک ماشینی از زبان و تصویر را تا حدی ارتقا دهد که خروجی های تولیدشده بشکل قابل ملاحظه ای به پاسخ های انسانی شباهت پیدا کنند. این در شرایطی است که پژوهشی مشترک میان دانشگاه های هاروارد، براون و توبینگن پا را فراتر نهاده و این پرسش بنیادین را مطرح کرده است که آیا شباهت میان انسان و هوش مصنوعی صرفا در سطح پاسخ نهائی است یا در لایه های زیرین پردازش هم مشابهت هایی میان پردازش مغز و ماشین وجود دارد. یافته های این پژوهش نشان داده است که فرایندهای درونی این مدلها بخصوص نحوه تحول احتمالات و اطمینان در طول لایه های شبکه عصبی و پردازش اطلاعات، به نحو شگفت انگیزی با مراحل پردازش شناختی در مغز انسان قرابت دارند. به عقیده خیلی از متخصصان، این هم ارزی ساختاری می تواند پیامدهایی بنیادین برای حوزه های مدل سازی شناختی، تحلیل رفتاری، علوم اعصاب محاسباتی و طراحی سامانه های هوشمند تبیین پذیر داشته باشد؛ بخصوص در راه توسعه مدل هایی که نه تنها خروجی های دقیق بلکه فرایندهای فکری قابل درک و همساز با ادراک انسانی عرضه می دهند. خبرنگار مهر در این نوشته کوتاه به مرور بعضی از ابعاد پژوهش صورت گرفته و یافته های آن در رابطه با الگوی تفکر هوش مصنوعی و مغز انسان می پردازد. الگوی مشابه فرآیند تفکر در انسان و ماشین پژوهش مورد اشاره با هدف بررسی تشابهات پردازشی میان مدلهای هوش مصنوعی ترنسفورمر و نظام های ادراکی انسان، تمرکز خویش را از تحلیل صرفِ خروجی مدل به بررسی «پویایی های لایه زمان» (layer-time dynamics) در جریان گذار معطوف کرده است. بر همین اساس، در فرایند «forward pass»، داده ورودی به شکل مرحله ای از هر لایه شبکه عبور می کند تا به خروجی نهائی برسد. محققان برای اولین بار این سیر پردازشی درونی را با روندهای شناختی انسان در حل مساله مقایسه کرده اند. آنان در این پژوهش مشترک تلاش کردند با استفاده از داده های رفتاری انسانی نظیر دقت پاسخ، زمان واکنش، مسیر ماوس و رفتارهای معطوف بر تایپ محتوا، به درک بهتری از هم پوشانی شناختی انسان و مدلهای مورد اشاره دست یابند. در این چارچوب، چهار مؤلفه کلیدی برای سنجش پویایی های درونی مدلها تعریف شد که هر یک بازتابی از نحوه «فکر کردن» مدل در گذر زمان هستند: ۱. میزان عدم قطعیت یا ابهام (entropy)
2. میزان اطمینان به پاسخ صحیح (log probability) یا (reciprocal rank)
3. اطمینان نسبی بین پاسخ صحیح و یک پاسخ نادرست ولی شهودی
۴. شاخص توانمندسازی پاسخ درست در مقابل پاسخ شهودی اشتباه این سنجه ها در سه مقیاس زمانی ارزیابی شدند که جزیات آن به شرح زیر است: ۱. مقدار نهائی در خروجی مدل
۲. مساحت زیر منحنی روند تغییرات در تمام لایه ها (AUC)
3. نقطه اوج تغییرات بین لایه ها (Max-delta) یا لحظه «تصمیم گیری» نهائی مدل برای عرضه پاسخ این پژوهش پنج مطالعه تجربی را در حوزه های زبانی، منطقی و بینایی شامل می شد. در مطالعه نخست، شرکت کنندگان نام پایتخت ایالت هایی نظیر ایلینوی را به یاد می آوردند؛ جایی که پاسخ شهودی، یعنی شیکاگو با پاسخ واقعی، یعنی شهر اسپرینگفیلد متفاوت است. مدلهای ترنسفورمر در فرآیند حل این مساله، روندی مشابه انسان را نشان دادند. آنها در لایه های میانی پردازش خود بیشتر با پاسخ شهودی همسو بودند و تنها در مراحل نهائی پاسخ صحیح تقویت می شد. این الگو نه تنها در خروجی نهایی، بلکه در راه تحول احتمال پاسخ ها هم بازتاب یافت و به خوبی با الگوی تردید و اطمینان در ذهن انسان مطابقت داشت. در مطالعه دوم، وظیفه شناسایی صحیح بین دو گزینه متناقض برای هوش مصنوعی عنوان شد. در این حالت، سنجه های اطمینان نسبی (مثل اختلاف لگاریتم احتمال) بیشترین قدرت پیشبینی رفتار انسان را بخصوص در پیشبینی دقت پاسخ و زمان واکنش نشان دادند. محققان در مطالعه سوم، دسته بندی مفهومی بر مبنای نمونه ها و مسیر حرکت ماوس مانند طبقه بندی نهنگ بعنوان پستاندار را مورد ارزیابی دقیق قرار دادند. در این مرحله هم سنجه های پردازشی مدل توانستند خصوصیت های حرکتی ماوس انسان را پیشبینی کنند و شتاب یا مسیر آن با میزان اطمینان مدل ارتباط مستقیم داشت. مدلهای هوش صمنوعی در مطالعه چهارم، آزمون های استدلال قیاسی دریافت نمودند. این آزمون ها چالشی برای منطق انسان محسوب می شوند چونکه پاسخ ها اغلب تحت تاثیر باورهای پیشینی افراد قرار می گیرند. مدلهای مورد بررسی هم در چنین مواردی سوگیری هایی مشابه بروز دادند و سنجه های «اطمینان میانگین در طول لایه ها» در این بخش با دقت و زمان واکنش انسانی همبستگی بالایی داشت. در نهایت، در پنجمین مطالعه، مدل «Vision Transformer» در حوزه بینایی مورد بررسی قرار گرفت. نتیجه آن که حتی در وظایف سخت تری مانند تشخیص تصویر از مجموعه های خارج از توزیع (OOD)، مشخص شد که رفتار پردازشی مدل با انسان مشابه است. بنا بر اعلام محققان حاضر در این پروژه علمی، متریک عدم قطعیت (entropy) به شکل ویژه در طول لایه ها توانست به خوبی دقت و زمان واکنش انسان را در این موقعیت ها پیش بینی نماید. این مجموعه از مطالعات، نشان داد که مدلهای بزرگ نه تنها خروجی های مشابه با انسان دارند، بلکه فرایند رسیدن به آن خروجی ها هم از نظر سازوکارهای زمانی و پردازشی، به نحوی با مراحل ادراک انسانی هم راستا و شبیه است. از همین روی، نتایج این پژوهش پرسش های جدیدی در باب کارکردهای شناختی مدلهای زبانی و ظرفیت آنها برای تحلیل، شبیه سازی و حتی آموزش فرایندهای ذهنی انسان مطرح می سازد. جمع بندی یافته های این پژوهش، نشانه ای قدرتمند از همگرایی فرآیندهای شناختی در انسان و ماشین است. برخلاف دیدگاهی که مدلهای هوش مصنوعی را صرفا به مثابه جعبه های سیاه درنظر می گیرد و آنها را ابزاری می داند که صرفا ورودی را به خروجی نگاشت می کنند بدون آن که بتوان از درون آنها چیزی در رابطه با سازوکارهای شناختی آموخت، نتایج این پژوهش از آن حکایت می کند که برخی مکانیسم های پردازشی درونی مدلهای ترنسفورمر، هم راستا با مراحل تصمیم سازی و حل مساله در مغز انسان عمل می کنند. بخصوص روند تغییر اعتماد و عدم قطعیت در لایه های مختلف مدل، بسیار شبیه به نوسانات ذهنی انسان در رویارویی با انتخاب های متناقض، درگیری با تردید و تثبیت نهائی تصمیم است. به عقیده کارشناسان، این هم پوشانی نه تنها افق های جدیدی را برای توسعه سامانه های هوشمند شفاف، تبیین پذیر و قابل درک از منظر انسانی گشوده است، بلکه می تواند در آینده به ابزاری بدل شود که برای مدل سازی شناخت، آزمون فرضیه های روان شناختی و طراحی مداخلات آموزشی مبتنی بر الگوهای ذهنی انسان مورد استفاده قرار گیرند. به بیانی دیگر، این نتایج می توانند پلی میان علوم شناختی تجربی و علوم رایانشی برقرار سازند. با این حال، باید با احتیاط علمی به این یافته ها نگریست. نخست آن که دامنه تعمیم پذیری این الگوهای همگرایی هنوز محدود به مدلهای خاص و وظایف مشخصی است که در این پژوهش مورد بررسی قرار گرفته اند. هنوز معلوم نیست که آیا این شباهت در دیگر معماری ها، حوزه های موضوعی یا وظایف چندوجهی هم مشاهده خواهد شد یا خیر. نکته دوم هم تمایز میان بازنمایی های آماری جمعی و تقلید از فرآیندهای شناختی فردی یک پرسش کلیدی و بنیادین باقیمانده است. آیا این مدلها واقعا مانند انسان «فکر می کنند»، یا صرفا الگویی میانگین از رفتار هزاران انسان را بازتولید می کنند؟ پاسخ به این پرسش بنیادین، نه فقط جهت تفسیر شناختی نتایج بلکه برای تعیین قابلیت اعتماد به مدل در تصمیم سازی های حساس هم اهمیت اساسی دارد. با این همه، این مطالعه را میتوان گامی رو به جلو در رمزگشایی از سازوکارهای درونی مدلهای بزرگ زبانی و بینایی دانست؛ اقدامی که تلاشی نوین برای اتصال حوزه یادگیری ماشین به فهم عمیق تری از ماهیت تفکر، ادراک و داوری انسانی در لحظه بحساب می آید.
منبع: newcctv.ir
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب