Нове дослідження ставить під сумнів більш ніж сторічні уявлення про те, як наш мозок обробляє візуальну інформацію. Проблема безпілотних автомобілів з відстеженням об'єктів під час руху в режимі реального часу може полегшитися.
Досі не було досягнуто наукового консенсусу щодо того, як наш мозок успішно відстежує об'єкти очима, по кілька разів щосекунди, з вражаючою координацією і, здавалося б, мінімальними зусиллями.
Нова робота під керівництвом когнітивного нейробіолога доктора Вілла Гаррісона з Університету Саншайн-Кост може дати відповідь на це питання.
«Подібно до того, як автомобіль без водія повинен координувати свій рух по дорозі з навколишніми об'єктами, мозок мусить координувати рух очей, голови і тіла, зберігаючи при цьому цілісне розуміння візуального світу», – каже доктор Гаррісонс.
«Понад 100 років переважає гіпотеза, що мозок досягає цього шляхом постійного прогнозування того, як виглядатиме світ, якщо він виконає певний рух. Втім, такі прогнози потребують величезних обчислювальних потужностей. Наше дослідження показує, що відповідь може бути значно простішою», – каже доктор Гаррісон.
Мозок обчислює реальне розташування об'єктів, просто комбінуючи інформацію про те, куди спрямовані очі і де візуальна інформація потрапляє на сітківку ока.
У мавп, тварин з подібною до людської зоровою системою, ділянки мозку, які першими отримують візуальні сигнали від очей, також отримують інформацію і про те, куди спрямовані очі.
Щоб перевірити цю ідею, доктор Гаррісон і його колеги провели експеримент, в якому учасники виконували складне завдання візуальної диференціації, переміщуючи погляд по дисплею. Використовуючи високошвидкісний очний трекер, який з частотою 1000 разів на секунду вимірює, куди дивиться людина, доктор Гаррісон виявив, що люди відстежують розташування об'єктів за рухами очей зі значно більшою точністю і зі значно прецизійнішою часовою роздільною здатністю, ніж вважалося раніше.
«Ми не знайшли доказів того, що мозок робить прогнози з кожним рухом очей, але ми виявили, що швидкість, з якою люди можуть відстежувати об'єкти за рухом очей, дуже схожа на час активності, яку раніше спостерігали в мозку мавп», – каже доктор Гаррісон.
Після цього дослідники розробили математичну модель, щоб змоделювати, як мозок може обчислити реальне місцезнаходження об'єкта. Ефективність моделі підтвердила, що візуальна стабілізація, ймовірно, потребує значно простіших обчислень, ніж вважалося раніше.
Отже, чи означає це, що автовиробники впроваджуватимуть цю нову модель візуального відстеження у своїх безпілотних автомобілях? Адже однією з головних проблем, що заважає цим автомобілям стати масовими, є те, що інженерам важко зрозуміти, як обробляти величезні обсяги даних за час, необхідний для безпечної роботи рухомого транспортного засобу.
«Важко сказати, але наші результати можуть продемонструвати неефективність того, як їхні комп'ютери намагаються обробляти візуальні дані, – зазначив доктор Гаррісон. – Що дійсно змінює це дослідження, – то це десятиріччя усталених уявлень про те, як наш мозок опрацьовує візуальну інформацію. Ми сподіваємося, що наша переглянута теорія допоможе пояснити, як мозок координує інші складні дії з багатьма різними органами чуття».
Driverless cars struggle to track objects while moving. So why don’t our eyes?
UniSC, 04.07.2024
03.08.2024