
Дослідники з Єврейського університету в Єрусалимі вивчили, як людський мозок сприймає мову, та порівняли цей процес із роботою мовної моделі штучного інтелекту Whisper. Виявилося, що штучний інтелект та біологічний мозок використовують подібні механізми обробки інформації.
Whisper, розроблена OpenAI, навчалася на аудіозаписах та транскрипціях розмов. На відміну від традиційних мовних моделей, що аналізують фонетичну структуру мови, Whisper обробляє мову виключно на основі статистичних даних. Однак, незважаючи на відсутність явних вказівок, модель все ж таки засвоїла особливості мовної структури.
У дослідженні взяли участь чотири пацієнти з епілепсією, яким було імплантовано електроди для моніторингу активності мозку. Вчені записали більше 100 годин їх розмов у лікарні та використали 80% цих записів для навчання Whisper. Потім модель повинна була створити текстову розшифровку 20% аудіозаписів, що залишилися.
Результати показали, що Whisper з високою точністю передбачила, які області мозку будуть активними під час розмови. Наприклад, верхня скронева звивина реагувала на обробку звуків, а нижня лобова звивина – на розуміння сенсу слів. Це підтвердило гіпотезу у тому, що мозок працює колективно, розподіляючи завдання між різними областями.
За словами Аріеля Гольдштейна, одного з авторів дослідження, ці результати допомагають краще зрозуміти роботу когнітивних процесів: "Ми маємо розглядати пізнання через призму таких моделей".
Гашпер Бігуш, доцент Каліфорнійського університету в Берклі, який не брав участі у дослідженні, зазначив, що порівняння штучних та біологічних нейромереж – важливий крок у вивченні роботи мозку: "Це дозволить проводити експерименти, які неможливо здійснити у нашому біологічному мозку".
Це дослідження відкриває нові можливості для створення технологій, які можуть допомогти людям з порушеннями мови та слуху, а також подальшого вивчення роботи людського мозку.
Ще більше гарячого та ексклюзивного контенту – у наших Instagram та TikTok !