Великі мовні моделі (LLM), що стали основою сучасного штучного інтелекту, досягли свого технологічного плато. Директор департаменту штучного інтелекту компанії Sponge Анар Лавренов заявив, що архітектура трансформерів, якій незабаром виповниться 10 років, вичерпала свій потенціал і потребує радикальної заміни для подальшого прориву.

Лавренов підкреслив, що бенчмарки нових моделей майже не змінюються, а істотних покращень у їхній роботі не спостерігається. Приклади таких систем, як Claude Opus 4.7, 4.6 та Gemini 3.1, демонструють однакові результати, що свідчить про вичерпання можливостей існуючого коду та архітектурних рішень.

Експерт порівняв ситуацію з неможливістю створити супервелосипед, якщо конструкція залишається незмінною з двома колесами та трубами. Він зазначив, що всі провідні компанії, зокрема Microsoft, Spotify та OpenAI, усвідомлюють цю проблему, оскільки всі вони використовують одну й ту саму застарілу архітектуру.

Водночас Лавренов закликає не панікувати щодо майбутнього галузі. Він категорично заперечує тезу про те, що штучний інтелект є «бульбашкою», називаючи його важливим напрямком розвитку. На його думку, світ чекає на появу нової архітектури, яка стане таким же стрибком, як перехід від рекурентних моделей до трансформерів з виходом GPT 3.5.

У найближчому майбутньому ринок технологій може зазнати змін, оскільки компанії будуть змушені шукати нові підходи до розробки, щоб не відстати від інновацій. Впровадження нових протоколів та архітектурних рішень здатне змінити правила гри в сфері штучного інтелекту та забезпечити новий етап його еволюції.