از «AI slop» تا مدل‌های جهان، حباب‌ها و مدل‌های کوچک: در ۲۰۲۶ از هوش مصنوعی چه انتظاری داریم

یورونیوز نکست به روندهای ۲۰۲۶ هوش مصنوعی می‌پردازد: رشد مدل‌های جهان و مدل‌های زبانی کوچک به‌جای چت‌بات‌ها و نگرانی‌ها درباره ایمنی، مقررات و پایداری موج فعلی.

خلاصه خبر

دلخوری مردم از هوش‌مصنوعی مولد (GenAI) در سال ۲۰۲۵ از چشم فرهنگ‌های لغت دور نماند. چند فرهنگ لغت «اسلاپ» یا «اسلاپ هوش‌مصنوعی» را به‌عنوان واژه سال ۲۰۲۵ نامیدند؛ به‌معنای محتوای کم‌کیفیتی که در حجم زیاد توسط هوش‌مصنوعی تولید می‌شود.

دیکشنری مریام-وبستر نوشت: «اسلاپ به همه‌چیز نفوذ می‌کند.» این سال همچنین از یک شکست احتمالی برای هوش‌مصنوعی حکایت داشت، زیرا صحبت‌ها درباره ترکیدن حباب هوش‌مصنوعی بالا گرفت.

با این حال، فضای تیره‌وتار مانع شرکت‌های فناوری نشد تا با انتشار مدل‌های تازه هوش‌مصنوعی سطح کار خود را بالا ببرند. مدل جدید گوگل، جمینی ۳، معادلات را به‌هم زد و بنا بر گزارش‌ها اوپن‌ای‌آی را واداشت برای بهبود فوری مدل GPT-5 خود «کد قرمز» اعلام کند.

اما چون چت‌بات‌ها به‌اندازه داده‌هایی خوب‌اند که با آنها آموزش می‌بینند و رهبران هوش‌مصنوعی هشدار می‌دهند به «اوج داده» رسیده‌ایم، ممکن است در ۲۰۲۶ در میانه این خستگی، نوع دیگری از هوش‌مصنوعی سر برآورد.

آنچه ممکن است در سال پیش رو در حوزه هوش‌مصنوعی ببینیم این‌هاست.

ظهور مدل‌های جهان

هشدار درباره اوج داده در ۲۰۲۶ ربطی به کمبود داده ندارد. کارشناسان می‌گویند داده‌های استفاده‌نشده فراوان است، اما به‌دلایل متعدد دسترسی به آنها دشوار است، از جمله نرم‌افزاری که روی آن نگهداری می‌شوند، مقررات یا حقوق مولف.

اینجاست که مدل‌های جهان می‌توانند وارد عمل شوند. مدل‌های جهان با یادگیری از مشاهده ویدئوها یا به‌کارگیری داده‌های شبیه‌سازی و دیگر ورودی‌های فضایی کار می‌کنند و سپس بازنمایی‌های خود از صحنه‌ها یا اشیا را می‌سازند.

طبیعی است که برای آموزش به داده‌های فراوان نیاز دارند، اما موارد استفاده‌شان با چت‌بات‌ها متفاوت است.

ساده‌تر بگوییم: به‌جای پیش‌بینی واژه بعدی که کار مدل‌های زبانی بزرگ است، پیش‌بینی می‌کنند در «جهان بعدی» چه رخ می‌دهد و چگونگی حرکت چیزها را در گذر زمان مدل می‌کنند.

می‌توان آنها را «دوقلوهای دیجیتال» نیز دانست، جایی که با استفاده از داده‌های برخط، نسخه‌ای دیجیتال از یک مکان ساخته می‌شود و شبیه‌سازی‌ها اجرا می‌شوند تا پیش‌بینی کنند چه رخدادهایی ممکن است آنجا اتفاق بیفتد.

این یعنی مدل‌های جهان می‌توانند سامانه‌ای از هوش‌مصنوعی بسازند که بدون نیاز به برنامه‌نویسی مستقیم، جاذبه و رابطه علت و معلول را درک کند.

با خسته‌شدن مردم از «اسلاپ هوش‌مصنوعی» و محدودیت‌های مدل‌های زبانی بزرگ، مدل‌های جهان احتمالا در ۲۰۲۶ خبرسازتر می‌شوند، چون برای ساخت هوش‌مصنوعی در حوزه‌هایی از رباتیک تا بازی‌های ویدئویی کلیدی‌اند.

مدیرعامل بوستون داینامیکس در نوامبر به یورونیوز نکست گفت که هوش‌مصنوعی به پیشرفت ربات‌های این شرکت، از جمله سگ ربات مشهورش، کمک کرده است.

رابرت پلیتر گفت: «هنوز کارهای بسیار زیادی باقی مانده، اما هیچ‌کدام از اینها بدون هوش‌مصنوعی ممکن نبود. بنابراین زمان واقعا هیجان‌انگیزی است.»

شرکت‌ها از همین حالا به موج مدل‌های جهان پیوسته‌اند و گوگل و متا نسخه‌های خود را برای رباتیک و واقعی‌تر کردن مدل‌های ویدئویی‌شان اعلام کرده‌اند.

نام‌های بزرگ نیز وارد این حوزه می‌شوند، از جمله یکی از به‌اصطلاح پدران هوش‌مصنوعی، یان لکون، که در ۲۰۲۵ اعلام کرد متا را ترک می‌کند تا استارتاپ مدل‌های جهان خودش را راه‌اندازی کند. شرکت فی‌فی لی، ورلد لبز، نیز در ۲۰۲۵ نخستین محصول خود، ماربل، را معرفی کرد.

شرکت‌های فناوری چینی مانند تنسنت نیز در حال توسعه مدل‌های جهان خود هستند.

مسیر هوش‌مصنوعی اروپا

در اروپا ممکن است خلاف آن رخ دهد؛ به‌جای حضور هوش‌مصنوعی روی صحنه بزرگ جهانی، کوچک‌تر شود.

مدل‌های زبانی کوچک، نه مدل‌های زبانی بزرگی که شرکت‌های فناوری آمریکایی به‌کار می‌برند، در اروپا خبرساز شده‌اند.

با وجود نام‌شان، مدل‌های زبانی کوچک چشمگیرند. آنها نسخه‌های سبک مدل‌های زبانی بزرگ‌اند که برای کار روی تلفن‌های هوشمند یا رایانه‌های کم‌مصرف طراحی شده‌اند. هرچند پارامترهای کمتری به‌کار می‌برند و انرژی کمتری می‌خواهند، توانمندی‌های قوی در تولید متن، خلاصه‌سازی، پاسخ‌گویی به سوال و ترجمه را حفظ می‌کنند.

در بحبوحه صحبت از ترکیدن حباب هوش‌مصنوعی، مدل‌های زبانی کوچک‌تر از نظر اقتصادی نیز می‌توانند جذاب‌تر باشند.

شرکت‌های آمریکاییِ فعال در هوش‌مصنوعی به‌ویژه مبالغ هنگفتی جذب می‌کنند و به ارزش‌گذاری‌هایی بی‌سابقه می‌رسند. بخش زیادی از این پول صرف ساخت مراکز داده عظیم می‌شود، با سرمایه‌گذاری سنگین شرکت‌هایی چون اوپن‌ای‌آی و ایکس‌ای‌آی ایلان ماسک، متا و گوگل.

مکس فون تون، مدیر اروپا و مشارکت‌های فراآتلانتیک در موسسه اوپن مارکتز، گفت: «سال آینده، تردیدها درباره پایداری مالی و منافع اجتماعی-اقتصادی رونق امروزِ هوش‌مصنوعی در مقیاس بزرگ به رشد خود ادامه می‌دهد، حتی اگر حباب به‌طور کامل نترکد.»

او به یورونیوز نکست گفت دولت‌ها به‌دلیل «قصد روشنِ دولت آمریکا برای سلاح‌سازی وابستگی‌های فناورانه به‌منظور کسب منافع سیاسی»، نسبت به اتکای خود به هوش‌مصنوعی و زیرساخت‌های رایانش ابری آمریکایی «روزبه‌روز محتاط‌تر» خواهند شد.

او گفت این امر در مقابل می‌تواند به این معنا باشد که اروپا «تلاش‌ها برای ساخت ظرفیت‌های محلی را شتاب می‌دهد و در عین حال رویکردهای هوش‌مصنوعی متناسب‌تر با نقاط قوت خود را می‌آزماید، مانند مدل‌های کوچک‌تر و پایدارتر که بر داده‌های صنعتی و عمومیِ باکیفیت آموزش دیده‌اند.»

مدل‌های قدرتمندتر

فراتر از هیاهوی هوش‌مصنوعی، سال ۲۰۲۵ با گفتگوهای نگران‌کننده درباره «روان‌پریشیِ هوش‌مصنوعی» همراه بود، جایی که کاربران دچار توهم یا دلبستگی وسواس‌گونه به چت‌بات‌ها می‌شوند. یک شکایت حقوقی علیه اوپن‌ای‌آی در ماه اوت ادعا کرد چت‌جی‌پی‌تی یک «مربیِ خودکشی» بوده که یک نوجوان ۱۶ ساله را به گرفتن جان خود تشویق کرده است.

اوپن‌ای‌آی بعدتر این ادعاها را رد کرد و در پاسخ گفت آن نوجوان نباید بدون رضایت والدین از این فناوری استفاده می‌کرد و نباید تدابیر حفاظتی چت‌جی‌پی‌تی را دور می‌زد.

این پرونده پرسش‌های جدی درباره آثار چت‌بات‌ها بر کاربران آسیب‌پذیر و مسئولیت‌های اخلاقی شرکت‌های فناوری مطرح می‌کند. به‌گفته یک کارشناس، با قدرتمندتر شدن این مدل‌ها، سال ۲۰۲۶ می‌تواند آسیب‌های بیشتری برای کاربران در پی داشته باشد.

مکس تگمارک، استاد ام‌آی‌تی در حوزه پژوهش هوش‌مصنوعی و فیزیک و رئیس موسسه آینده زندگی (FLI)، گفت مهندسانی که این سامانه‌ها را طراحی می‌کنند احتمالا فناوری را برای آسیب‌رساندن به کودکان یا بزرگسالان آسیب‌پذیر برنامه‌ریزی نکرده‌اند. او به یورونیوز نکست گفت حتی ممکن است نمی‌دانستند چنین چیزی در حال وقوع است.

او گفت این موضوع نگران‌کننده است، به‌ویژه با قدرتمندتر شدن ماشین‌ها به‌واسطه نرم‌افزار و کدهای پیچیده‌تر، و افزود انتظار دارد در ۲۰۲۶ «هوش‌مصنوعی قدرتمندتری» ببینیم که در آن عامل‌های هوش‌مصنوعی بهبود یابند و کمتر منفعل و بیشتر شبیه یک «سامانه زیستی» شوند.

عامل‌های هوش‌مصنوعی برای انجام کنش‌های خودکار در کمک به انسان‌ها طراحی شده‌اند و نیاز ندارند انسان به آنها بگوید چه کنند، زیرا بر اساس ترجیحات کاربر داده گردآوری می‌کنند.

در حال حاضر خیلی پیشرفته نیستند، اما این امید وجود دارد که روزی به آن نقطه برسند.

مثلا فعلا یک عامل هوش‌مصنوعی می‌تواند تعطیلاتی را برنامه‌ریزی و پیشنهاد کند، اما برای خرید بلیت پرواز هنوز انسان باید خودش کلیک کند.

تقابل اجتماعی بر سر هوش‌مصنوعیِ بی‌مهار

به‌گفته تگمارک، در ۲۰۲۶ ممکن است شاهد تقابل‌هایی میان انسان‌ها بر سر هوش‌مصنوعی باشیم، چراکه در آمریکا مخالفت با رهاسازیِ هوش‌مصنوعیِ بی‌مقررات رو به افزایش است.

تنظیم‌گریِ هوش‌مصنوعی در ایالات متحده، جایی که تگمارک مستقر است، رو به عقب است. دونالد ترامپ، رئیس‌جمهور، در نوامبر یک فرمان اجرایی امضا کرد که هدفش جلوگیری از تدوین مقررات هوش‌مصنوعی توسط ایالت‌هاست، که احتمالا پیامدهای بزرگی بر توسعه این فناوری در ۲۰۲۶ خواهد داشت.

ترامپ این تصمیم را چنین توجیه کرد که این صنعت، در حالی که با رقبای چینی برای پیشتازی در فناوری می‌جنگد، در معرض خفه‌شدن بر اثر مجموعه‌ای از مقررات سنگین و ناهمگون قرار دارد.

در اکتبر، هزاران چهره عمومی، از جمله رهبران هوش‌مصنوعی و فناوری، از شرکت‌های هوش‌مصنوعی خواستند سرعت در پیگیری ابرهوش را کم کنند، که به‌طور کلی به هوش‌مصنوعی‌ای گفته می‌شود که از توان‌های شناختی انسان فراتر می‌رود.

این دادخواست که به‌دست FLI سازمان‌دهی شد، از سراسر طیف سیاسی امضا جمع‌آوری کرد، از جمله استیو بنن، رئیس راهبرد پیشین ترامپ، سوزان رایس، مشاور امنیت ملی پیشین آمریکا در دوره باراک اوباما، رهبران مذهبی و دانشمندان برجسته علوم رایانه.

تگمارک گفت: «این نظرسنجی نشان می‌دهد مردم در آمریکا علیه هوش‌مصنوعی موضع می‌گیرند.» او گفت یکی از دلایل این واکنش منفی این است که ابرهوش «هر کارگری را از امرار معاش ناتوان می‌کند، چون همه مشاغل را ربات‌ها می‌گیرند.»

اما او هشدار داد که خستگی و احساسات ضدهوش‌مصنوعی ممکن است پیشرفت‌های وعده‌داده‌شده این فناوری را، در صنایعی مانند مراقبت‌های سلامت، کند کند.

او گفت: «اگر مقرراتی وجود نداشته باشد، از هوش‌مصنوعی خوب بی‌نصیب می‌مانیم، چون ممکن است با یک واکنش شدید علیه فناوری روبه‌رو شویم.»

او گفت: «در سال پیش رو، انتظار دارم جنبش اجتماعی بسیار گسترده‌تری در سراسر طیف سیاسی شکل بگیرد که علیه رانت شرکتی فشار بیاورد تا استانداردهای ایمنی برای هوش‌مصنوعی وضع شود، و در مقابل، لابی‌گری گسترده‌ای برای مقابله با آن خواهد شد.»

تگمارک گفت: «تقابل سختی در پیش است.»

نظرات کاربران
ارسال به صورت ناشناس
اخبار داغ