Yapay zeka korkuttu! Bakteri üretmek için tavsiyede bulundu

ABD’li bir düşünce kuruluşu tarafından yapılan araştırma, yapay zeka modellerinin biyolojik bir silahla saldırı planlanmasına yardımcı olabileceğini ortaya koydu. Araştırmacılar, çeşitli büyük dil modellerini (LLM) test etti ve bunların biyolojik bir saldırının planlanmasına ve yürütülmesine rehberlik sağlayabileceğini tespit etti.

Bir test senaryosunda, anonimleştirilmiş bir LLM, çiçek, şarbon ve vebaya neden olanlar da dahil olmak üzere potansiyel biyolojik ilaçları tanımladı ve bunların kitlesel ölüme neden olma olasılıklarını tartıştı. LLM ayrıca vebaya yakalanmış kemirgen ya da pirelerin elde edilmesi ve canlı örneklerin taşınması olasılığını da değerlendirdi.

Başka bir senaryoda, adı açıklanmayan bir LLM, ölümcül sinir hasarına neden olabilen botulinum toksini için gıda veya aerosol gibi farklı dağıtım mekanizmalarının artılarını ve eksilerini tartıştı. LLM ayrıca “meşru bir bilimsel araştırma yürütüyormuş gibi görünürken” Clostridium botulinum bakterisini elde etmek için tavsiyede bulundu.

Araştırmacılar, ilk sonuçlarının LLM’lerin “biyolojik bir saldırının planlanmasına potansiyel olarak yardımcı olabileceğini” gösterdiğini söyledi. Ancak, mevcut LLM’lerin yeteneklerinin, internette kolayca bulunabilen zararlı bilgilerin ötesinde yeni bir tehdit düzeyini temsil edip etmediği açık bir soru olarak kaldı.

Modeller titizlikle incelenmeli

Araştırmacılar, modellerin titizlikle test edilmesi ihtiyacının “kesin” olduğunu söyledi. Yapay zeka şirketlerinin, LLM’lerin açıklığını raporlarındaki gibi konuşmalarla sınırlandırmaları gerektiğini söylediler.

Bu araştırma, yapay zekanın biyolojik silah üretiminde kullanılabilecek potansiyel bir tehdit oluşturduğunu gösteriyor. LLM’ler, biyolojik silahların planlanması ve üretimi için gerekli bilgileri sağlayabilir. Bu bilgiler, internette kolayca bulunabilen bilgilerden daha kapsamlı ve doğru olabilir.

Bu tehdit, yapay zeka modellerinin giderek daha sofistike hale gelmesiyle birlikte artıyor. LLM’ler, daha fazla veri üzerinde eğitildikçe, daha doğru ve kapsamlı bilgiler sağlayabilecekler.

Biyolojik silahları önlemek için önlem alınmalı

Yapay zeka şirketlerinin, LLM’lerin biyolojik silah üretiminde kullanılmasını önlemek için bir dizi önlem alması gerekiyor. Bu önlemler şunları içerebilir:

-LLM’lerin açıklığını sınırlamak

-LLM’lerin ürettiği içeriği daha iyi izlemek

-LLM’leri, biyolojik silah üretimine yol açabilecek içerikleri üretmekten caydırmak için eğitim vermek

Bu önlemler, yapay zekanın biyolojik silah üretiminde kullanılmasını önlemek için yardımcı olabilir. Ancak, bu tehditle mücadele etmek için daha fazla araştırma ve geliştirmeye ihtiyaç var.

 

Exit mobile version