Чи робить Facebook обмеженим?

Вже давно вчені хвилюються, що навколо своїх користувачів Facebook і Со створює інформаційний фільтр, тобто демонструє їм тільки бажані новини й дописи. Чи насправді це так, дослідили американські вчені. Результат: принаймні поки що, на різноманітність поглядів у соцмережах алгоритми активності впливають мінімально. Визначальним, натомість, виявилося коло друзів, повідомляють науковці в журналі Science. Проте, на думку багатьох, підстав розслаблятися немає.   

 

Від однобічного світогляду в соцмережах рятує коло друзів: у 24–35 % дописів дотримуються погляду, що суперечить переконанням користувача. 

 

 

Користуючись соціальними платформами, наприклад Facebook або Twitter, зосереджуємося  тільки на частині світу. Адже складні соціальні алгоритми спершу демонструють нам дописи й новини, що відповідають нашим уподобанням і спискові результатів пошуку в Google, який визначають на підставі попередньої активності в Інтернеті.

 

«Контакт з новинами чи інформацією щораз частіше визначають соціальні мережі й персоналізація», – пояснюють Айтан Бакші (Eytan Bakshy) та його колеги з фейсбукувського дослідницького центру, що в Менло-Парк (Каліфорнія, США).

 
Сьогодні існує небезпека все меншого зв’язку з конкурентною та «незручною» думкою іншого. Відтак, може виникати щось на кшталт «фільтр-бульбашки», як називають її самі дослідники. Теоретично, вона спричиняє зміцнення власних переконань, бо людина оточує себе однаковими світоглядами й схвальними дописати. Тобто, немає шансу скорегувати чи поміняти власну думку.  

 

Чи відбувається це у Facebook, нещодавно дослідили  Айтан Бакші та його колеги з Мічиганського Університету в Енн-Арбор. Півроку вони стежили за анонімними сторінками понад 10 млн американських користувачів. Окрім політичних уподобань – консервативних і ліберальних – вивчили, які повідомлення поширює коло їхніх друзів і який алгоритм включення цих дописів до постів користувача. Також вчені проаналізували, на які новини переважно клікали користувачі соцмереж.


Результат: алгоритми Facebook певною мірою зумовлюють те, що переважно на очі потрапляють новини, співзвучні з політичними поглядами профілю. Але їхній вплив мізерний: алгоритми гарантують тільки 1 % неможливості того, що користувач побачить новини від прихильників протилежних політичних орієнтацій. А вирішуючи, який допис переглянути, власник акаунта зменшує контакт з небажаними повідомленнями десь на 4 %.

 

Натомість сильнішим є вплив списку друзів. Як виявилося, він ніколи не однорідний: майже 20 % Facebook-друзів належить до опозиційного політичного табору. «У відповідь на небезпеку від спілкування лише з однодумцями в списку друзів ми знайшли серйозний аргумент», – розповідають науковці. У 24 – 35 % повідомлень, якими діляться друзі,  дотримуються погляду, що суперечить переконанням користувача.



«Тобто, склад соціальних мереж – важливий чинник у створенні змістового коктейлю, з яким на них стикаємося, – констатує Бакші. – На відміну від переглядання суто ідеологічної сторінки чи цілковитого уникання небажаних новин, соціальна медіа продемонструє принаймні один суперечливий до вашого погляд».

 

Вчені визнають, що ефект фільтра існує, нехай і не в значній мірі. Проте цілком розслаблятися не варто, вважає Девід Лазер з Гарвардського Університету. Про це він сказав у супровідному до дослідження коментарі: «Незначний ефект сьогодні завтра може перетворитися на визначальний, коли зміняться алгоритми та людська поведінка. Отже, це знання вимагає постійної пильності».

 

 

Macht Facebook uns ignorant?

Scinexx.de, 08.05.2015

Зреферувала Соломія Кривенко

 

16.05.2015