Apple проти ілюзії мислення: що показало нове дослідження

12.06.2025 0 By Chilli.Pepper

Чи може штучний інтелект дійсно мислити, чи ми лише бачимо ілюзію розуму? Коли навіть найпотужніші моделі «розсипаються» перед складною задачею, це не просто технічний нюанс — це виклик усьому уявленню про майбутнє штучного інтелекту. Дослідження Apple кидає рукавичку гігантам галузі: чи справді сучасні AI-системи здатні до справжнього міркування, чи ми стали заручниками переконливої симуляції?

На початку червня 2025 року команда Apple оприлюднила дослідження, яке поставило під сумнів здатність сучасних AI-моделей до справжнього міркування. Як повідомляє Ars Technica, експерименти з класичними головоломками — «Вежа Ханоя», «Стрибки шашками», «Переправа через річку» та «Світ блоків» — виявили: навіть найновіші reasoning-моделі (LRMs) демонструють катастрофічний спад точності при зростанні складності задачі. Вони не просто помиляються — вони здаються, припиняючи спроби вирішити задачу.

Дослідники Apple підкреслюють: хоча такі моделі добре справляються з математикою чи програмуванням, їхня «логіка» — це ілюзія мислення, яка розсипається перед незнайомими викликами. Це підтверджує і досвід з олімпіадними математичними задачами: моделі провалюють доведення, які вимагають справжньої побудови міркувань, а не відтворення шаблонів із тренувальних даних.

Суть експерименту: як тестували штучний інтелект

Apple протестувала як класичні LLM (ChatGPT GPT-4, Claude 3.7 Sonnet, DeepSeek V3), так і спеціалізовані reasoning-моделі (ChatGPT o1, Gemini, Claude 3.7 Sonnet Thinking, DeepSeek R1) BGR, Mashable. На простих задачах LLM навіть перевершували reasoning-моделі. На середньому рівні складності LRMs мали перевагу, але при переході до складних задач усі моделі зазнавали повного краху: точність не просто знижувалася — вона обвалювалася до нуля.

Дослідники давали моделям повний «бюджет» на роздуми (наприклад, 64 000 токенів для Claude 3.7 Sonnet), але це не допомагало: моделі припиняли спроби, коли складність виходила за межі знайомого. Навіть якщо в підказці містився алгоритм вирішення, AI не міг його застосувати до нової задачі The Verge, ITPro.

Ілюзія інтелекту: чому моделі здаються розумними

Apple назвала це явище «The Illusion of Thinking» — ілюзія мислення. Як пише Forbes, сучасні AI-моделі вражають здатністю генерувати переконливі, логічні на вигляд відповіді. Проте це — результат потужного розпізнавання шаблонів, а не справжнього розуміння чи міркування. Дослідники Apple підтверджують скепсис провідних фахівців галузі, зокрема Яна ЛеКуна (Meta), який давно стверджує: сучасний AI — це не мислення, а складна імітація.

У низькоскладних задачах LLM часто навіть кращі за reasoning-моделі. На середніх — виграє спеціалізований AI. Але коли завдання стає справжнім викликом, обидва типи моделей капітулюють. Це фундаментальна межа сучасних підходів до тренування AI.

Реакція індустрії: скепсис, виклики і пошук нових підходів

Дослідження Apple спричинило хвилю дискусій у спільноті. Компанії OpenAI, Google, Anthropic неодноразово заявляли, що їхні моделі здатні «думати», аналізувати і навіть вчитися на помилках ITPro. Проте систематичний підхід Apple довів: зі зростанням складності задачі точність не зростає, а різко падає. Це ставить під сумнів маркетингові обіцянки AI-гігантів і змушує переглянути підходи до розробки reasoning-моделей.

Як відзначає The Verge, розробникам доведеться шукати нові архітектури та методи тренування, які дозволять AI не просто імітувати мислення, а й справді розв’язувати нові, незнайомі задачі.

Apple Intelligence: контекст і майбутнє

На тлі цього дослідження Apple презентувала оновлену лінійку foundation models для Apple Intelligence — власної інтеграції генеративного AI у продукти компанії Apple ML Research. Нові моделі швидші, ефективніші, краще працюють із текстом та зображеннями, підтримують 15 мов і оптимізовані для Apple Silicon. Але навіть у власних звітах Apple визнає: попри поліпшення, фундаментальні межі reasoning залишаються Apple ML Research (Illusion of Thinking).

Це пояснює обережність Apple щодо масового впровадження AI у свої продукти. Компанія наголошує на відповідальному використанні та приватності, але не поспішає з гучними обіцянками про «справжній розум» у Siri чи інших сервісах.

Чому це важливо: AGI, довіра і майбутнє штучного інтелекту

Дослідження Apple — це не лише технічний звіт, а й етичний виклик для всієї галузі. Якщо навіть найкращі моделі не здатні до справжнього міркування, чи готові ми довірити їм критично важливі рішення? Як підкреслює BGR, ідея AGI (штучного загального інтелекту), який зможе самостійно вирішувати нові проблеми, залишається далеким горизонтом.

Водночас, як зазначає Newssky, ці обмеження стимулюють нові дослідження й пошук гібридних підходів, де AI та людина доповнюють одне одного. Етична відповідальність, прозорість і критичне мислення мають стати основою для подальшого розвитку галузі.

Висновок: ілюзія мислення чи новий старт для AI?

Apple показала, що сучасний AI — це не мислення, а симуляція. Але саме це усвідомлення може стати поштовхом до створення нових, справді розумних систем. Майбутнє штучного інтелекту залежить не лише від обчислювальної потужності, а й від здатності мислити інакше — як людина, але з урахуванням власних меж і відповідальності.

Джерела: Ars Technica, Mashable, BGR, Forbes, The Verge, ITPro, Apple ML Research, Apple ML Research (Illusion of Thinking)


Підтримати проект:

Підписатись на новини:




В тему: