هر بار که چت بابات اشتباه می کند ، اولین غریزه اکثر کاربران این است که بپرسید چه اتفاقی افتاده است که چرا چه کسی اشتباه کرده است. اما با مدل های زبانی ، بر خلاف افراد واقعی ، این کمکی نخواهد کرد. آنها به سادگی نمی توانند اشتباهات خود را تجزیه و تحلیل کنند. پورتال اطلاعات Arstechnica.com گفت.

اولین مشکل مفهوم است. وقتی با یک چت بابات صحبت می کنید ، با برخی از افراد یا طبیعت دائمی ارتباط برقرار نمی کنید. بله ، Chatgpt ، Claude ، Grok یا Reprit از نظر فنی نامگذاری شده است ، اما آنها شایسته دانش نیستند – این فقط یک توهم است که توسط رابط گفتگو ایجاد شده است. در حقیقت ، شما آمار متن را کنترل می کنید و بسته به نیاز کاربر ، نتایج را ارائه می دهید.
به عبارت دیگر ، هیچ چت یا گروک وجود ندارد. شخص با سیستمی در تعامل است که بر اساس نمونه های موجود در پایگاه داده (معمولاً منسوخ) یک متن صوتی کامل ایجاد می کند. این سیستم از خود درک یا دانش سیستم و همچنین توانایی آن در یادآوری خود برخوردار نیست.
پس از مطالعه یک مدل زبانی ، زمان و منابع زیادی طول می کشد ، دانش اساسی آن در مورد جهان در یک شبکه عصبی پلمپ می شود و بندرت اصلاح می شود. هرگونه اطلاعات خارجی از نیازهای ربات ، ابزارهای کاربر یا نرم افزار برای استفاده برای یافتن داده ها در زمان واقعی استفاده می شود.
به عنوان مثال ، اگر Grok را می گیرید ، منبع اصلی اطلاعات برای پاسخ ممکن است بر خلاف یکدیگر از پست های اخیر در شبکه های اجتماعی باشد. نه دانش ، مانند مورد همه. و اگر این اطلاعات کافی نباشد ، مدل به دلیل توانایی پیش بینی متن به سادگی چیزی را ارائه می دهد.
شماره دو – که به دلایل مختلف نمی توانند توانایی های خود را درک کنند. به عنوان یک قاعده ، آنها اطلاعاتی در مورد نحوه تحقیق ندارند ، معماری سیستم اطراف برای آنها در دسترس نیست ، آنها نمی توانند مرزهای عملکرد آنها را تعیین کنند. اگر از Chatbot بپرسید که او چه کاری می تواند انجام دهد و چه چیزی نیست ، پس او بازخورد را بر اساس آنچه در مورد محدودیت های مدل های زبانی قبلی می گوید ، بازخورد می دهد. در حقیقت ، او به سادگی با یک حدس پاسخ می دهد ، و نه اطلاعات عملی در مورد خودش.
تحقیقات در سال 2024 با کمک یک آزمایش ، این ظرافت را اثبات کرد. اگرچه مدل های II می توانند آموزش ببینند تا بتوانند رفتار خود را در کارهای ساده پیش بینی کنند ، اما دائماً در کارهای پیچیده تر شکست می خورند. به همین ترتیب ، تحقیقات در مورد معرفی بازگشتی وایکینگ نشان می دهد که هیچ پاسخی از خارج وجود ندارد ، که سعی می کند اشتباهات آنها را اصلاح کند و منجر به کاهش بهره وری مدل شود. یعنی عزت نفس هوش مصنوعی بدتر است ، بهتر نیست.
بعضی اوقات این امر منجر به موقعیت های متناقض می شود. این مدل با اطمینان می تواند بگوید که نمی تواند وظایف را انجام دهد ، اما در واقع ، روی شانه او و برعکس ، به کاربران اطمینان می دهد که او می تواند آنچه را که غیرممکن است انجام دهد. ما نباید فراموش کنیم که با سؤال از هر کسی که در کجا اشتباه کرده است ، کاربران بخش دیگری از متن ایجاد شده را دریافت می کنند و نه یک تحلیل واقعی از خطا.
نکته منفی مدل های زبان این است که آنها پایه دانش پایدار و مقرون به صرفه ای ندارند که همیشه می توانید با آن تماس بگیرید. دانش آنها فقط خود را برای برآورده کردن الزامات خاص بیان می کند. درخواست هر کاربر نقش نوع آدرس را ایفا می کند که به قسمت های مختلف پایگاه داده ای که او آموزش دیده است ، اشاره دارد. این دقیقاً همان چیزی است که منجر به پاسخ های متناقض می شود.
اما حتی اگر II دانش ایده آل در مورد مکانیسم های خاص خود داشته باشد ، ممکن است سایر لایه های چت ربات برنامه ها نتوانند نفوذ کنند. بنابراین ، Aiststros مدرن ، مانند TATGPT ، یک مدل واحد نیست ، بلکه سیستم های بزرگی از جمله مدل های مختلف با هم کار می کنند. هر یک از آنها ، بیشتر ، از وجود دیگران اطلاع ندارند. بنابراین ، از هر کسی در مورد خطاهایی مانند درخواست بخشی از یک شرکت بزرگ درباره آنچه در بخش دیگری که هرگز با آنها تماس نگرفته اند ، سؤال کنید.
سرانجام ، مهمترین نکته این است که کاربر تقریباً همیشه بر پاسخ هر کسی تأثیر می گذارد – مهم نیست که آنها می دانند یا نه. اگر از chatbot در وحشت سؤال کنید ، آیا او سوابق یا کد برنامه را نابود کرده است ، پس او تمایل دارد که به آن بله پاسخ دهد ، زیرا این گزینه برای زمینه عاطفی درخواست مناسب است.