Biden Ukrayna’ya asker gönderdi, Emma Watson Hitler hayranı oldu

Gerçekçi konuşmalar üretmek için yapay zeka (AI) kullanan bir ses teknolojisi şirketi, fiyatsız sunduğu teknolojinin, ünlü isimlerin sesini klonlaması ve uygunsuz tabirler seslendirtmesinin akabinde, bahisle ilgili ekstra güvenlik tedbirleri getireceğini açıkladı.

ElevenLabs isimli şirket, bu ayın başlarında bir ses klonlama paketi yayınladı. Sky News’in haberine nazaran Şimdi beta evrede olan deepfake (yapay zeka kullanılarak oluşturulmuş ses ve görüntü evraklarını tanımlayan bir terim) ses oluşturma yapay zekası, daha birinci günlerinde berbata kullanılmaya başlandı. Sistemi berbata kullanan şahıslar, İngiliz oyuncu Emma Watson‘a Adolf Hitler‘in Kavgam’ından kısımlar okuttu, ABD Lideri Joe Biden‘a “Ukrayna’ya asker göndertti”.

Film direktörü James Cameron, Top Gun yıldızı Tom Cruise ve podcast yayıncısı Joe Rogan‘ın da amaç alındığı belgelerde, son derece saldırgan, ırkçı ya da bayan düşmanı bildiriler seslendirildi.

Geçen yıl eski Google mühendisi Piotr Dabkowski ve eski Palantir Technologies stratejisti Mati Staniszewski tarafından kurulan ElevenLabs, Twitter üzerinden yaptığı açıklamada teknolojisinin berbata kullanımının nasıl önlenebileceği konusunda geri bildirim istedi: “Teknolojimizin büyük ölçüde olumlu hedeflerle kullanıldığını görsek de, giderek artan sayıda ses klonlama berbata kullanım olayı da görüyoruz.”
Geçtiğimiz yıl Ukrayna Devlet Lideri Vladimir Zelenski‘nin ordusuna “silah bırakmalarını” söylediği bir deepfake görüntü internette paylaşılmıştı.

Deepfake nedir?

Deepfake, yapay zeka kullanılarak oluşturulmuş ses ve görüntü evraklarını tanımlayan bir terim. Her cinsten deepfake bulmak mümkün: Bir kişinin yüzünün bir oburuyla değiştirildiği belgeler, konuşan kişinin ağzının özgününden farklı bir ses kesimine ayarlanabildiği dudak senkronizasyonları, şahsa söylemediği şeyler söyletmek için kullanılan ses klonlama tekniği.

Nasıl tespit edilir?

Neyin gerçek, neyin düzmece olduğunu ayırt etmek için deepfake uzmanı olmanıza gerek yok. İşte kimi ipuçları:

1. Tez etmeyin ve içeriğe tekrar bakın. Paylaşmadan evvel düşünün. Kendinize sorun: Bu nitekim hakikat olabilir mi? Bu türlü bir şeyin olması beklenebilir mi? Şayet emin değilseniz de paylaşmayın.

2. Farklı ve muteber kaynaklardan birebir kıssayı yahut anlatıyı bulup bulamayacağınızı süratlice denetim edin. Kısa bir internet araması size gerçek öyküye dair ipuçları verecektir.

3. Diğer bir sürüm bulup karşılaştırmayı deneyin.

4. Sentetik ve manipüle edilmiş içeriklerde neredeyse görünmez olan ipuçlarını yakalamak sıkıntı bir iş. Bu çeşit manipülasyonlar, bir görüntüde garip sıçramalarla, ses vurgusu değişikliğiyle, düşük kaliteli sesle, bulanık noktalarla, garip uzuv formlarıyla ve öteki olağandışı tutarsızlıklarla tespit edilebilir. Duyularınıza ve içgüdülerinize itimadın. Her vakit kendinize sorun: Bu mantıklı mı? Bu hakikaten doğru olabilir mi? Dikkatlice bakın ve her vakit iki kere bakın.

5. Deepfake tespit etme ipuçlarına bakın: Harika simetrik bir yüz, uyumsuz küpeler, sıra dışı kulak, burun ve diş biçimleri, kontrast kaybı, uzunluğunda, saçta yahut parmaklarda tutarsızlıklar.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir