Нова теорія нейронного кодування інформації

 

Науковці з Інституту науки та технологій Австрії і з Парижа поєднали та розвинули всі прийняті дотепер теорії про те, як нерви відбирають і переносять інформацію в нашій сенсорній системі.



Нерви сітківки кодують інформацію, що надходить ззовні, щоби передати її в мозок. Зображення: IST Austria/Birgit Rieger.



Цифрові відеокамери неймовірно детально записують те, що відбувається, але збереження цих даних потребує надто багато місця. Перед інженерами зараз постало питання, як стискати відео, тобто видаляти інформацію, щоби при перегляді цього не було помітно.

 

З подібною проблемою зіткнулися наші очі. Вони перенасичені візуальною інформацією, але можливості нейронів у них обмежені. Як зі всієї кількості подразників нейрони вибирають ту інформацію, яку потрібно записувати та відсилати в мозок?

 

Неврологи заптували себе це і розробили різні теорії, аби передбачити, що нейрони будуть робити в певних ситуаціях. Нещодавно Метью Чалк (Matthew Chalk, колись постдокторант в Австрійському Інституті науки та техніки (ІНТ), а зараз – у Парижі), професор з ІНТ Ґашпер Ткачік (Gašper Tkačik) та Олів’є Мар (Olivier Marre), який очолює лабораторію з дослідження сітківки у Візуальному інституті Парижа, розробили рамковий проект, що поєднує всі попередні теорії кодування інформації. Це дозволяє вченим також робити прогнози про ті види нейронів, яких досі не описувала жодна теорія.

 

Одна з основних цілей науковців – спрогнозувати нервові реакції через математичні моделі. Це прогнозування ґрунтується на трьох основних теоріях, серед яких кожна має різну сферу застосування. Кожній відповідають відповідні припущення про внутрішні обмеження нейронів, вид сигналу та мету інформаційного збору.

 

Нейронний код, по суті, є функцією, що передбачає, коли нейрон «загориться». Сигнальний потенціал дії відповідає при цьому цифровій «1» у бінарній системі. Так один чи кілька нейронів, що загораються в певний момент, можуть кодувати інформацію.

 

Ефективне або статистичне кодування передбачає, що нейрони обробляють якомога більше інформації, беручи до уваги всі внутрішні обмеження – наприклад, шуми чи метаболізм.

 

Інтелектуальне кодування натомість передбачає, що опрацьовується лише та інформація, яка є важливою для передбачення майбутнього – наприклад, у якому напрямку полетить комаха.

 

Зрештою, «розріджене кодування» (sparse coding) передбачає те, що одночасно активуються лише деякі нерви.

 

Дотепер було неясно, в яких випадках можна застосовувати ці теорії і чи вони узгоджуються одна з одною. Проте сучасні дослідження вносять порядок у теоретичний ландшафт: «Донині не знали, як можна поєднати ці теорії або як їх можна порівняти. Наша рамкова праця долає цю перепону, з’єднуючи їх всередині загальної структури», – пояснив Ґашпер Ткачік.

 

У контексті цієї рамкової праці нейронний код можна інтерпретувати яко код максималізації певної математичної функції. Ця функція – і нейронний код, який її максимізує – залежить від трьох параметрів: від шумів у сигналі; від мети, тобто завдання – наприклад, передбачення майбутнього; і від складності сигналу, що кодується.

 

Описані вище теорії годяться лише для певних діапазонів цих параметрів і не охоплюють весь можливий простір величин. Це призводить до проблем при спробі експериментально їх перевірити.

 

Ґашпер Ткачік пояснив: «Коли ви створюєте подразники, якими потім представляєте нейрон у моделі, котру потрібно перевірити, надто складно зрозуміти, чи нейрон не зовсім збігається з улюбленою теорією, чи ваша улюблена теорія просто неповна. Наша уніфікована модель надає конкретні прогнози для величин, що розташовані між тими, які досліджували раніше».

 

Така цілісна теорія команди долає наявні обмеження, даючи змогу нейронам мати «змішану» мету кодування. Вони не повинні пасувати до чітких, раніше досліджуваних категорій. Наприклад, нова теорія може пояснити випадок, коли нейрони поодинці мають дуже багато шумів, але повинні ефективно кодувати розсіяні подразники. Загалом оптимальні нейронні коди можуть бути розміщені на континуумі відповідно до тих величин, які визначають обмеження оптимальності всіх параметрів. Це пояснює феномени, які раніше помічали, але не могли пояснити жодною наразі розробленою моделлю.

 

Для провідного автора Метью Чалка це один із найцікавіших моментів їхнього дослідження: «Чимало теорій, що дають змогу прогнозувати, у тестах є негнучкими. Або вони передбачають правильно, або ні. Чого ми більше потребуємо і що дає нам змогу здійснити наше дослідження – це продукувати багато гіпотез і припущень для різних ситуацій».

 

Крім забезпечення значної гнучкості, рамкова теорія може робити конкретні прогнози щодо певних видів нейронного кодування, які дотепер були недослідженими – наприклад, розріджене й інтелектуальне кодування.

 

У межах нової теорії Метью Чалк спроектував експеримент, аби перевірити прогнози і зарахувати нейрони до певної категорії як ефективні, інтелектуальні, розсіяні або такі, що поєднують різну мету кодування. В лабораторії Олів’є Мара вчений зосередився на сітківці та розробив візуальні стимули, які активують нейрони сітківки, аби найкраще виявити мету їхнього кодування.

 

Рамкова теорія може мати і ширше застосування. «Необов’язково йдеться про нерви, – пояснив Ґашпер Ткачік. –  Ідея розглянути цю проблему з точки зору оптимізації може бути використана в будь-якому типі системи, яка обробляє сигнали. А апроксимація дає змогу вивчати навіть ті системи, функції яких складно обчислити». Наріжний камінь подальшого застосування теорії троє вчених описали в статті, яку опублікували минулого року в «Advances in Neural Information Processing Systems (NIPS)». Цьогорічна стаття опублікована в PNAS.  

 


Forscher vereinheitlichen theorien der neuronalen informationskodierung
Institute Of Science And Technology Austria, 20.12.2017
Зреферувала Соломія Кривенко

30.12.2017