Незважаючи на те, що штучний інтелект давно перевершує людський за швидкістю обробки даних і точністю обчислень, його можливості логічного мислення все ще відсутні, повідомляє УНІАН.
Новий тест ARC-AG2 чітко показує, що навіть найдосконаліші моделі штучного інтелекту важко справляються із завданнями, зрозумілими для людини.
ARC-AG2 (Корпус абстракцій і міркувань) складається з набору логічних завдань, у яких штучний інтелект має розпізнати шаблони в серії кольорових квадратів і вибрати правильну відповідь. Ці головоломки не можуть бути розв'язані шляхом зубріння; вони вимагають когнітивної гнучкості, здатності до узагальнення та здатності застосовувати знання до нових завдань.
Результати показують, що ШІ наразі не має таких можливостей:
Deepseek R1 отримав лише 1,3% правильних відповідей, Google Gemini та Claude 3.7 Sonnet досягли приблизно 1%, тоді як OpenAI GPT-4.5 показали ще гірші результати – 0,8%.
Творці ARC-AG2 навмисно розробили завдання, щоб вони були складними для ШІ, але простими для людей. На відміну від звичайних оцінок, де штучний інтелект може залежати від великих баз даних, у цьому випадку він повинен миттєво адаптуватися до нової інформації, що підкреслює його обмеження.
Попередня версія тесту, ARC-AG1, була розроблена в 2019 році і залишалася нерозв’язною ШІ протягом чотирьох років. Якщо нова версія виявиться такою ж складною, вона може значно перешкодити прогресу в розробці штучного загального інтелекту (AGI).
Чому можна довіряти vesti-ua.net →
Читайте vesti-ua.net в Google News
Источник: www.vesti-ua.net