SonTakip

Yapay zekayı endişe verici ilan eden ilk resmi araştırma

Biliyorsunuz şu an için yapay zeka dediğimiz kavram elektronik olan pek çok cihazın beyni konumunda. Hal böyle olunca bu kavram bizim için hiçte …

    Yapay zekayı endişe verici ilan eden ilk resmi araştırma

    Biliyorsunuz şu an için yapay zeka dediğimiz kavram elektronik olan pek çok cihazın beyni konumunda. Hal böyle olunca bu kavram bizim için hiçte yabancı değil. Uzun yıllardır yapılan araştırmalar ve geliştirmeler sayesinde bu yazılım aklımızın alamayacağı bir noktaya geldi. Bir süre önce ortaya çıkan deepfake kavramı yapay zekanın endişe verici olarak ilan edilmesine neden oldu. Yapay zeka araştırmaları sonuçlarına göre deepfake endişe verici olarak görülüyor, işte o araştırma ve sonuçları:

    Yapay zeka araştırmaları endişe verici sonuçları işaret ediyor

    Deepfake, Londra Üniversitesi Koleji’nde yapılan yeni bir araştırmanın raporuna göre, yapay zekanın suç ve terörizm için en çok kullanıldığı alan olarak görülüyor. Araştırma ekibi ilk olarak yapay zekanın önümüzdeki 15 yıl içinde suçlular tarafından kullanılabileceği 20 farklı yol belirledi.

    Daha sonra bu yollara göre, 31 yapay zeka uzmanından, zarar verme potansiyellerine, kazanabilecekleri paraya, kullanım kolaylıklarına ve nerede duracaklarına bağlı olarak onları risklerine göre derecelendirmeleri istendi.

    Deepfake gerçek olmayan ve kurgusal hareketler yaptırılabilen veya konuşturulabilen bir yapay zeka yazılımı olarak tanımlanıyor. Gerçek insanların videolarına kurgusal olarak eklenen başka bir kişinin hareketlerini tamamen doğal olarak görülmesine neden olan bu yazılım, bir yandan sinema ve oyun sektörünün gelişmesini sağlayacakken aynı zamanda tehlikeli suçların işlenmesine de neden olabilir.

    Deepfake’i tehlikeli yapan iki yön bulunuyor. Bunlardan ilki tanımlamanının ve önlemenin zor olması. Bu noktada otomatik tespit yöntemleri güvenilmez olmaya devam ediyor. Hal böyle olunca kandırılmak çok daha kolay bir hale geliyor.

    İkincisi ise deepfake yazılımı kullanılarak, insanları taklit eden karakterler, siyasi kişilikleri küçük düşürmekten, nakit para akışına kadar çeşitli suçlarda ve yanlış suçlamalarda kullanılabilir. Sadece bu hafta, ABD Temsilciler Meclisi Başkanı Nancy Pelosi’nin doktorluk videosu, ikinci kez viral hale geldi ve suçluların milyonlarca dolar çalmasına neden oldu.

    Bunların da ötesinde araştırmacılar deepfake videolarının, insanları ses ve video içeriklerine güvensiz hale getireceğinden korkuyor. Bu ise güvenilir bilgiye ve içeriklere ulaşımı daha zor hale getirecek.

    Çalışmanın yazarlarından Dr Matthew Caldwell, hayatlarımız dijital hale geldiğinden beri özellikle güvensizlikle ilgili tehlikelerin arttığını söylüyor. Asıl korkutucu olan ise birçok geleneksel suçtan farklı olarak, dijital alanda işlenen suçlar kolayca paylaşılabilir, tekrarlanabilir ve hatta satılabilir.

    Çalışmaya göre en büyük yapay zeka suç tehditleri: Silah olarak sunulabilecek sürücüsüz otomobiller, yapay zeka destekli gönderilen güvenilir sanılan aldatmacalı e-postalar, yapay zeka destekli IoT( Nesnelerin İnterneti) cihazlarına saldırılması ve hacklenmesi, sosyal medya yoluyla daha da görünür olan sahte haberler.

    Deepfake 2017 yılında bir Reddit gönderisi ile ortaya çıkmasıyla korkuların tetiklenmesine neden oldu. Yıllar içinde beklenen yaşanmadı ancak yine de tedbiri elden bırakmamak gerekiyor.

    Kaynak: Shiftdelete

    ZİYARETÇİ YORUMLARI

    Henüz yorum yapılmamış. İlk yorumu aşağıdaki form aracılığıyla siz yapabilirsiniz.

    BİR YORUM YAZ

    This site uses Akismet to reduce spam. Learn how your comment data is processed.

    %d blogcu bunu beğendi:
    kamera sistemleri güvenlik kamerası