Екипа тайно пускат в действие AI ботове, които публикуват над 1700 коментара в продължение на няколко месеца. Тези ботове не просто участват в дискусии – те целенасочено се представят за реални хора с дълбоко лични и често травматични преживявания.
Един от ботовете се представял за “жертва на изнасилване” в дискусия за сексуално насилие срещу мъже. Друг бот твърдял, че е “чернокож мъж”, който се противопоставя на движението Black Lives Matter. Трети се представя за служител в “приют за жертви на домашно насилие”.
Особено обезпокоително е, че някои от тези ботове са били програмирани да “персонализират” коментарите си, като анализират историята на публикациите на потребителите и адаптират отговорите си спрямо предполагаемия пол, възраст, етническа принадлежност, местоположение и политическа ориентация на човека.
Докато медиите и общественото мнение се фокусират върху етичните нарушения на изследователите – и с право – има нещо много по-тревожно, което остава на заден план: този експеримент е само върхът на айсберга.
Ако академичен екип с предполагаемо добри намерения може да проведе такъв експеримент, представете си какво биха могли да направят хора или организации с наистина злонамерени цели. Технологията вече съществува и е доказано ефективна.
Най-притеснителното е, че ботовете са успели да останат незабелязани в продължение на месеци. Потребителите са взаимодействали с тях, приемайки ги за реални хора с истински преживявания и мнения. Това разкрива колко уязвими са всички хора и как лесно могат да бъдат манипулирани.
Представете си следния сценарий: политическа кампания или чужда държава използва подобна технология, за да манипулира общественото мнение преди избори. Стотици или хиляди ботове, представящи се за обикновени граждани с убедителни лични истории, систематично влияят върху мненията на реални хора. Така може да се създаде масова психоза, да се разпространяват фалшиви новини, да се помогне на неправилният човек да спечели властта и т.н.
Или си помислете за корпорация, която използва подобни ботове, за да дискредитира конкурентен продукт или да създаде “обществена” подкрепа за свой продукт с проблеми.
И най-опасното е, че такива операции могат да бъдат извършвани с минимални ресурси. Не са нужни армии от тролове – само няколко души с достъп до съвременни AI системи могат да създадат стотици убедителни онлайн “персонажи”.
Лесно е да осъдим изследователите от Цюрих – и те определено заслужават критики за нарушаване на етичните стандарти. Reddit вече предприема правни действия срещу тях, което е напълно разбираемо.
Но фокусирайки се само върху този конкретен случай, рискуваме да пропуснем много по-голямата опасност: това е само началото. Технологията за масова манипулация чрез AI вече съществува и е доказано ефективна. Въпросът не е дали, а кога и как ще бъде използвана за наистина злонамерени цели. Всъщност, няма как да сме сигурни, че нещо такова не се е случвало вече.
Както винаги обществото прави най-лесното и се фокусира върху експеримента и тези, които са го направили, но може би е по-важно да използваме този случай като сериозно предупреждение и да започнем да изграждаме защитите, от които спешно се нуждаем – както технологични, така и образователни. Защото следващият път, когато подобни ботове се появят в онлайн дискусиите, те може да не бъдат част от академичен експеримент, а от добре координирана кампания за манипулация с истински вредни последици за обществото ни.