Експертите по изкуствен интелект отдавна предупреждават, че генерираното от AI съдържание може да размъти водите на възприеманата реалност. Седмици след ключова изборна година объркването на AI нараства. Това пише в статия на Washington post, специално преведена за БЛИЦ.

Политици по целия свят отхвърлят потенциално опасни доказателства – зърнести видеозаписи от гости в хотел, гласови записи, критикуващи политически опоненти – като ги отхвърлят като фалшификати, генерирани от AI. В същото време AI deepfakes се използват за разпространение на дезинформация.

В понеделник Министерството на правосъдието на Ню Хемпшир заяви, че разследва автоматични обаждания, включващи нещо, което изглежда е генериран от AI глас, който звучи като президент Байдън, който казва на гласоподавателите да пропуснат първичните избори във вторник - първото забележимо използване на AI за потискане на гласоподаватели през този цикъл на кампанията.

Миналия месец бившият президент Доналд Тръмп отхвърли реклама на Fox News, включваща видеоклипове на неговите добре документирани публични гафове - включително борбата му да произнесе думата "анонимен" в Монтана и посещението му в калифорнийския град "Удоволствие", известен още като Рая, и двете през 2018 г. — твърдейки, че кадрите са генерирани от AI.

„Перверзниците и губещите в провалилия се и веднъж разпуснат проект Линкълн и други използват ИИ. (Изкуствен интелект) в техните фалшиви телевизионни реклами, за да ме накарат да изглеждам лош и жалък като Изкривения Джо Байдън, не е лесна работа“, написа Тръмп в Truth Social. „FoxNews не трябва да пуска тези реклами.“

Проектът Линкълн, комитет за политически действия, създаден от умерени републиканци, за да се противопостави на Тръмп, бързо отхвърли твърдението; рекламата включваше инциденти по време на президентството на Тръмп, които бяха широко отразявани по онова време и станаха свидетели в реалния живот от много независими наблюдатели.

И все пак изкуственият интелект създава „дивидент за лъжеца“, каза Хани Фарид, професор в Калифорнийския университет в Бъркли, който изучава дигитална пропаганда и дезинформация. „Когато наистина хванете полицай или политик да казва нещо ужасно, те имат правдоподобно отричане“ в ерата на ИИ.

AI „дестабилизира концепцията за самата истина“, добави Либи Ланге, анализатор в организацията за проследяване на дезинформация Graphika. „Ако всичко може да е фалшиво и ако всеки твърди, че всичко е фалшиво или манипулирано по някакъв начин, наистина няма усещане за основна истина. Особено политически мотивираните актьори могат да приемат каквато интерпретация решат.

Тръмп не е единственият, който се възползва от това предимство. По целия свят изкуственият интелект се превръща в обикновена изкупителна жертва за политиците, които се опитват да отблъснат вредни обвинения.

В края на миналата година се появи зърнисто видео на тайвански политик от управляваща партия, който влиза в хотел с жена, което показва, че той има афера. Коментатори и други политици бързо се застъпиха в негова защита, като казаха, че кадрите са генерирани от AI - въпреки че остава неясно дали наистина е така.

През април изтече 26-секунден гласов запис, в който политик в южния индийски щат Тамил Наду изглежда обвинява собствената си партия в незаконно натрупване на 3,6 милиарда долара, според репортаж на Останалият свят. Политикът отрече достоверността на записа, като го нарече „машинно генериран“; експерти казаха, че не са сигурни дали аудиото е истинско или фалшиво.

Компаниите, занимаващи се с изкуствен интелект, обикновено казват, че техните инструменти не трябва да се използват в политически кампании сега, но прилагането им е на петна. В петък OpenAI забрани на разработчик да използва неговите инструменти, след като разработчикът изгради бот, имитиращ дългосрочния кандидат за президент на Демократическата партия Дийн Филипс. Кампанията на Филипс подкрепи бота, но след като The Washington Post съобщи за него, OpenAI сметна, че нарушава правилата срещу използването на неговата технология за кампании.

Объркването, свързано с ИИ, също се върти отвъд политиката. Миналата седмица потребители на социални медии започнаха да разпространяват аудио клип, за който твърдяха, че е директор на училище от окръг Балтимор, Мериленд, в расистка тирада срещу евреите и чернокожите ученици. Синдикатът, който представлява принципала, каза, че аудиото е генерирано от AI.

Няколко знака сочат към това заключение, включително еднаквата честота на речта и индикации за снаждане, каза Фарид, който анализира аудиото. Но без да знае откъде идва или в какъв контекст е записано, каза той, невъзможно е да се каже със сигурност.

В социалните медии коментаторите изглежда преобладаващо вярват, че аудиото е истинско, а училищният район казва, че е започнал разследване. Искане за коментар до директора чрез неговия синдикат не беше върнато.

Тези твърдения имат тежест, тъй като AI deepfakes са по-често срещани сега и по-добре възпроизвеждат гласа и външния вид на човек. Deepfakes редовно стават вирусни в X, Facebook и други социални платформи. Междувременно инструментите и методите за идентифициране на медия, създадена от AI, не са в крак с бързия напредък в способността на AI да генерира такова съдържание.

Действителните фалшиви изображения на Тръмп са станали вирусни многократно. В началото на този месец актьорът Марк Ръфало публикува AI изображения на Тръмп с тийнейджърки, твърдейки, че изображенията показват бившия президент в частен самолет, собственост на осъдения сексуален престъпник Джефри Епщайн. По-късно Ръфало се извини.

Тръмп, който прекара седмици срещу AI в Truth Social, публикува за инцидента, като каза: „Това е AI и е много опасно за нашата страна!“

Нарастващата загриженост относно въздействието на ИИ върху политиката и световната икономика беше основна тема на конференцията на световните лидери и изпълнителни директори в Давос, Швейцария, миналата седмица. В забележките си при откриването на конференцията президентът на Швейцария Виола Амхерд нарече генерираната от ИИ пропаганда и лъжи „реална заплаха“ за световната стабилност, „особено днес, когато бързото развитие на изкуствения интелект допринася за нарастващата достоверност на подобни фалшиви новини“.

Техническите и социалните медийни компании казват, че обмислят създаването на системи за автоматична проверка и модериране на генерирано от AI съдържание, което се твърди, че е истинско, но все още не са го направили. Междувременно само експертите притежават технологиите и експертните познания, за да анализират медия и да определят дали е истинска или фалшива.

Това оставя твърде малко хора, способни да събират истинско съдържание, което сега може да бъде генерирано с лесни за използване AI инструменти, достъпни за почти всеки.

„Не е нужно да си компютърен учен. Не е нужно да можете да кодирате“, каза Фарид. „Вече няма бариера за влизане.“

Авив Овадя, експерт по въздействието на AI върху демокрацията и филиал в Berkman Klein Center на Харвардския университет, каза, че широката общественост е много по-наясно с AI deepfakes сега в сравнение с преди пет години. Тъй като политиците виждат, че другите избягват критиките, като твърдят, че доказателствата срещу тях са ИИ, повече хора ще направят това твърдение.

„Има ефект на заразяване“, каза той, отбелязвайки подобно нарастване на политиците, които лъжливо наричат изборите фалшифицирани.

Овадя каза, че технологичните компании разполагат с инструментите за регулиране на проблема: те биха могли да водят аудио знак, за да създадат цифров пръстов отпечатък или да се присъединят към коалиция, предназначена да предотврати разпространението на подвеждаща информация онлайн чрез разработване на технически стандарти, които установяват произхода на медийното съдържание. Най-важното, каза той, те биха могли да променят своите алгоритми, така че да не популяризират сензационно, но потенциално невярно съдържание.

Досега, каза той, технологичните компании най-вече не са успели да предприемат действия, за да защитят възприятието на обществото за реалността.

„Докато стимулите продължават да бъдат сензации, водени от ангажираност, и наистина конфликти“, каза той, „това са видовете съдържание – независимо дали са дълбоки фалшиви или не – които ще излязат на повърхността.“

Следете актуалните новини с БЛИЦ и в Telegram. Присъединете се в канала тук