Site icon Pingvin.Pro

AlgorithmWatch «вивів на чисту воду» алгоритми Instagram: Facebook все заперечує

Instagram / образливі повідомлення / відображення лайків

Дослідники з AlgorithmWatch були змушені відмовитися від свого проєкту з моніторингу алгоритму Instagram після юридичних погроз з боку Facebook. Нагадаємо, що днями Instagram запустив функцію для боротьби з агресивними користувачами. А конфіденційність Messenger та Instagram тепер покращиться.




Запущений в березні 2020 року, AlgorithmWatch надав плагін для браузера, який дозволив користувачам збирати дані зі своїх сторінок Instagram, даючи уявлення про те, як платформа розставляє пріоритети для показу зображень і відео. Проєкт регулярно публікував результати, які показують, що алгоритм надає перевагу фотографіям з оголеною шкірою і що фотографії з людьми мають вищий рейтинг, ніж скріншоти з текстом. Facebook оскаржував методологію, але не приймав ніяких інших заходів проти AlgorithmWatch протягом першого року реалізації проєкту.

У травні Facebook попросив про зустріч з керівниками проєкту та звинуватив їх у порушенні умов обслуговування платформи. Ще одне заперечення полягало в тому, що проект порушував GDPR, оскільки він збирав дані від користувачів, які не давали згоди на участь.

«Ми збирали тільки дані, що стосуються контенту, який Facebook показував добровольцям, що встановили плагін. Іншими словами, користувачі плагіну отримують доступ тільки до свого власного профілю і діляться ним з нами в дослідницьких цілях».

дослідники AlgorithmWatch

Facebook «змусив» закрити проєкт з дослідження алгоритмів Instagram

Проте, дослідники вирішили закрити проєкт, вважаючи, що в разі його продовження вони зіткнуться з судовим позовом з боку компанії. Представник Facebook підтвердив проведення зустрічі, але заперечував загрозу подати в суд на проєкт. Він заявив, що компанія відкрита для пошуку способів збереження конфіденційності для продовження дослідження.

«У нас були проблеми з їхньою практикою. Тому ми зв’язувалися з ними кілька разів, щоб вони могли погодитися з нашими умовами та продовжити свої дослідження, як ми зазвичай робимо з іншими дослідницькими групами, коли виявляємо аналогічні проблеми. Ми маємо намір продовжувати працювати з незалежними дослідниками, але таким чином, щоб не піддавати ризику дані або конфіденційність людей».

представник Facebook

Соціальна природа платформ Facebook ускладнює ізоляцію будь-якого окремого користувача. Навіть коли користувач погоджується, його стрічка обов’язково складається з контенту інших людей, які, ймовірно, не дали згоди на участь в дослідженні. Facebook особливо уважно ставився до дослідницьких проєктів після скандалу з Cambridge Analytica. Тоді дані академічних досліджень використовувалися для комерційних і політичних маніпуляцій.

Блокування неугодних

Проте, більш широка картина викликає занепокоєння. Алгоритми, що керують новинними стрічками у Facebook та Instagram, надзвичайно ефективні, але погано розуміються. А політика Facebook ускладнює їхнє об’єктивне вивчення. Рекламна обсерваторія Нью-Йоркського університету, яка відстежувала політичну рекламу на платформі, на початку цього місяця побачила, що її дослідники були заблоковані через звинувачення в зборі даних. У листопаді компанія виступила з аналогічними юридичними погрозами щодо браузера Friendly, який дозволяв користувачам відображати новинну стрічку в хронологічному порядку. CrowdTangle, ще один популярний інструмент для дослідження Facebook, був придбаний компанією в 2016 році.

У Facebook є кілька механізмів, які допомагають дослідникам збирати дані, серед яких Бібліотека оголошень і партнерські відносини Social Science One. Але AlgorithmWatch стверджує, що опозиційний характер їхнього дослідження робить дані ненадійними.

«Дослідники не можуть покладатися на дані, надані Facebook, бо компанії не можна довіряти. Немає підстав вважати, що Facebook надасть придатні для використання дані, якщо дослідники замінять свої незалежно зібрані дані на отримані від компанії».

AlgorithmWatch