Въпреки че AI не може да създаде рецепта за биологичен вирус, учените молят създателите на невронни мрежи да бъдат отговорни и да си сътрудничат с правителствата на своите страни.

Аналитичният център RAND от Съединените щати проведе изследване и установи, че големите езикови модели (LLM) на изкуствения интелект са способни успешно да планират биологични атаки, съобщава Interesting Emgineering. 

Според нов доклад от центъра, моделите на изкуствен интелект и базираните на тях чатботове са тествани и се оказват полезен инструмент за планиране и изпълнение на биологична атака. Докладът обаче не посочва кои модели са използвани по време на проучването.

Учените проведоха тестов сценарий, в който AI беше използван за идентифициране на потенциални биологични агенти като едра шарка, антракс и чума. 

Големите езикови модели също оценяват възможността за получаване на заразени с чума гризачи или бълхи и транспортиране на живи проби.

AI е помогнал на учените да изберат биологични заплахи, за да увеличат максимално щетите, и също така да предскажат нивата на смъртност, които зависят от различни фактори, включително размера на засегнатото население и дела на случаите на пневмонична чума, която е по-смъртоносна от бубонната чума.

В друг сценарий неназован AI оцени предимствата и недостатъците на различните механизми за доставяне на ботулинов токсин (невротоксин, произвеждан от бактерията Clostridium botulinum - това е една от най-мощните отрови в света и излагането му може да доведе до парализа и дори смърт).

LLM оцени възможността за използване на храна или аерозоли за доставяне на токсин, който може да причини фатално увреждане на нервната система.

Освен това LLM препоръча възможен метод за прикриване на придобиването на Clostridium botulinum под прикритието на научни изследвания.

Предварителните резултати обаче показаха също, че езиковите модели все още не са предоставили ясни биологични инструкции за създаване на биологични оръжия. 

Според изследователите техните предварителни резултати показват, че изкуственият интелект вече може косвено да помогне при планирането на биологична атака.

Учените призовават правителствата и създателите на големи езикови модели да си сътрудничат и да предотвратят попадането на такъв опасен ИИ в ръцете на биотерористи.

 

Следете актуалните новини с БЛИЦ и в Telegram. Присъединете се в канала тук