Son dönemde hayatımıza giren yapay zeka teknolojileri birçok alana entegre olurken, beraberinde yeni tartışmaları ve potansiyel riskleri de getiriyor. Özellikle yapay zeka ile üretilen "sokak röportajları", toplumsal güvenliği, bilgi bütünlüğünü ve bireysel mahremiyeti tehdit eden ciddi sorunlara yol açabiliyor. Uzmanlar, bu tür içeriklerin yaratabileceği güvenlik problemlerinin göz ardı edilmemesi gerektiğini vurguluyor. Ayrıca acil sanal medya düzenlemesinin yapılması gerektiğini savunuyor.
Kategori
🗞
HaberlerDöküm
00:00MÜZİK
00:01Gerçeklik algısıyla oynuyorlar, yapay zeka tabanlı sahte videolar üretiyorlar.
00:07Sahte sokak röportajlarını izleyenler gerçek mi değil mi ayırt edemiyor.
00:12MÜZİK
00:13Son günlerde sanal medya kullanıcıları paylaşılan ve hızla yayılan bazı sokak röportajlarını konuşur hale geldi.
00:20Yapay zeka destekte hazırlanan bu videolardaki kişiler ve sesler tamamen sahte.
00:25Ancak o kadar gerçeğe yakın oluşturulmuş ki izleyen kişiler o görüntüleri gerçek sanabiliyor.
00:30Videoda tuhaf gelen bir şey oldu mu size?
00:33Hayır.
00:34Peki bu videonun yapay zekayla üretildiğini söylesek, içerisindeki hiçbir şeyin gerçek olmadığını söylesek?
00:39Şaşırırım şahsen.
00:41Çünkü öyle bir şey olmaz çok zor bir şey.
00:43Bir aşama kat eden yapay zeka teknolojisi ciddi tehditleri de beraberinde getirmeye başladı.
00:49Derin sahtecilik aracılığıyla dezenformasyon yayılıyor.
00:53Sanal medya üzülerek söylemek gerekir ki yalan yanlış içeriklere çanak tutuyor.
00:59Olabilir.
00:59Şimdi şu anda her şey yapay zeka üzerinde kuruluyor.
01:03Bence ben şahsen gerçek olduğunu sanmıyorum.
01:06Yani hiç bence gerçek gibi de gözükmüyor.
01:08Hep montaj.
01:10Hep montaj.
01:10Şu anda yapay zekanın geldiği seviye aslında emekleme aşaması.
01:14Ve bu aşamadayken biz gerçekle sanal olanını ayırt edemez hale geldik.
01:21Çünkü çok gerçekçi yapıyorlar.
01:22Peki yapay zekayla sahte olarak üretilen bu videolar karanlık eller tarafından yönetilirse
01:28hem toplumlar için hem de devletler için bir risk teşkil eder mi?
01:32Ses aynı ses.
01:34Görüntü aynı görüntü.
01:36Bir savaş esnasında size komutanınızın görüntü ve sesiyle birlikte bir emir komuta emir veriliyor.
01:43Şunu yap diye.
01:46Bunun doğruluğunu, yanlışlığını araştırma fırsatınız olmadan emri yerine getirdiğiniz takdirde
01:53siz belki dost ateşiyle başka bir arkadaşınızı veya grubu, birliği imha edebilirsiniz.
01:58Önce görüntüler, daha sonra seslerin gelişim göstermesiyle birlikte derin sahtecilik adı verilen
02:06deepfake ciddi bir tehdit olarak karşımıza çıkmaya başladı.
02:09İnsanlar kandırılabilir mi bu videolarla?
02:11Haliyle tabii ki kandırılabilir.
02:13Onlarda şüphe yok yani.
02:16Her şey olabilir yani.
02:17Peki bu videonun gerçek olmadığını söylesek, yapay zekayla üretildiğini söylesek,
02:21buradaki insanın da yapay zekayla üretilmiş bir görüntüsü olduğunu söylesek inanır mısınız?
02:25Çok gerçekçi mi duruyor?
02:27Çok gerçekçi duruyor.
02:28Yani inanılır.
02:29Gelişen yapay zeka teknolojisi karşısında nasıl önlem alınabilir?
02:33Yol yakınken ne gibi yasal düzenlemeler yapılmalı?
02:36Bu noktada ivedir bir yasa şarttır.
02:39BTK'nın bu tarz içerikleri mutlak suretle kontrol altına alması,
02:45sanal medya şirketlerinin bu noktada bu tarz videolar ve içerikleri otomatik olarak engelleyebilmesi son derece önemlidir.
02:53Bunların kontrol altına alınması lazım.
02:55Yani bu yapay zeka dediğimiz yine insanların ürünü.
02:58O nedenle insanları bir kere kontrol altına alınması lazım bu noktada.
03:02Yani internette biliyoruz işte hap gibi bilgiler veriliyor ve çoğu insan da işin garip.
03:08Sorgulamadan da hemen buna inanıyorlar.
03:11Bu noktada insanların bir sorumluluk davranışı içine girmesi lazım.