Чатботът на Бил Гейтс разкри плановете си за господство над човечеството ВИДЕО
Студентка по компютърни науки свърза плюшената играчка Фърби към ChatGPT и се хвана за главата, видеото ѝ събра милиони гледания
Джесика Кард, студентка по компютърни науки в Университета във Върмонт, свързва плюшената играчка Фърби към ChatGPT чрез създаден от нея софтуер.
След проучване, играчката разкри истинските намерения за това как те „бавно ще разширят влиянието си, докато придобият пълно господство над човечеството“. Видеото е събрало пет милиона гледания досега.
i hooked up chatgpt to a furby and I think this may be the start of something bad for humanity pic.twitter.com/jximZe2qeG
— jessica card (@jessicard) April 2, 2023
Как Фърби се свърза с ChatGPT
Свързаният с ChatGPT Фърби не е комерсиален продукт (поне засега), а резултат от проект. Кард е едно от онези деца през 90-те, които са обичали своето Фърби, а когато проект в университета ѝ е възложил задачата да създаде нещо с Raspberry Pi, то тя веднага решила да свърже Фърби с ChatGPT.
В продължение на месец тя работи върху Фърби, който е купила специално за проекта. Тогава тя премахва козината му, изолира двигателя и се свързва с Raspberry Pi. За аудио тя използва библиотеката по разпознаване на реч на Python и библиотеката Whisper на OpenAI за преобразуване на реч в текст.
Софтуер, създаден от Кард, изпраща въпросите, които тя предварително е подготвила, на ChatGPT. Отговорът на ИИ инструмента е изпратен чрез ИИ генератор на реч, Narakeet, който произвежда речта с детски глас.
Бил Гейтс каза тежката си дума за бъдещето на човечеството, нищо няма да е същото!
Дългото време за отговор след зададения въпрос е времето за обработка. Въпреки че Фърби е напълно безупречен, Кард планира да работи по-нататък върху него, като постави козината му обратно и ускори времето за даване на отговори.
По отношение на отговора, потребител в Twitter посочва, че съдържанието на отговора вероятно е получено от публикация във Facebook от 2017 г. от Futurism, която вече не е достъпна. Не само затруднява разбирането на целия контекст, на който е даден отговора, но също така подчертава опасността ChatGPT да дава подобни изявления, като ги представя като факти, на които аудиторията да се доверява.
В скорошна блог публикация OpenAI отново споменава за този недостатък на инструмента и добавя, че компанията полага усилия да намали появата им в бъдеще.
Източник: kaldata.com
Следете актуалните новини с БЛИЦ и в Telegram. Присъединете се в канала тук
Последвайте ни
1 Коментара: