Gürkan Özsoy Blog

Kısmen Kişisel


OpenAI ses klonlama aracını tanıttı


OpenAI Cuma günü(29 Mart 2024), dinleyicileri kandırmaya yönelik ses sahtekarlıklarını engellemek için güvenlik önlemleri alınana kadar sıkı bir şekilde kontrol altında tutmayı planladığı bir ses klonlama aracını açıkladı. Aracın küçük ölçekli bir testinin sonuçlarını paylaşan bir OpenAI blog yazısına göre, “Voice Engine” adı verilen bir model, 15 saniyelik bir ses örneğine dayanarak birinin konuşmasını esasen kopyalayabilir. San Francisco merkezli şirket, “İnsanların seslerine benzeyen konuşmalar üretmenin ciddi riskler taşıdığının farkındayız ve bu riskler özellikle seçim yılında daha da ön plana çıkıyor” dedi. “Hükümet, medya, eğlence, eğitim, sivil toplum ve diğer alanlardaki ABD’li ve uluslararası ortaklarımızla birlikte çalışarak onların geri bildirimlerini de dikkate aldığımızdan emin oluyoruz.”

OpenAI ses klonlama aracını tanıttı

Dezenformasyon araştırmacıları, ucuz, kullanımı kolay ve izlenmesi zor olan ses klonlama araçlarının yaygınlaşması sayesinde, yapay zeka destekli uygulamaların çok önemli bir seçim yılında kötüye kullanılmasından korkuyor. Bu sorunları kabul eden OpenAI, “sentetik sesin kötüye kullanılması potansiyeli nedeniyle daha geniş bir sürüm için temkinli ve bilinçli bir yaklaşım benimsediğini” söyledi. Bu temkinli açıklama, Joe Biden’ın Demokrat rakibinin uzun süredir devam eden başkanlık kampanyası için çalışan bir siyasi danışmanın, ABD liderini taklit eden bir robocall’un arkasında olduğunu itiraf etmesinden birkaç ay sonra geldi.

Minnesota kongre üyesi Dean Phillips’in bir çalışanının fikri olan yapay zeka tarafından üretilen çağrıda, Biden’ın sesine benzeyen ve insanları Ocak ayındaki New Hampshire ön seçimlerinde oy kullanmamaya çağıran bir ses yer alıyordu. Bu olay, 2024 Beyaz Saray yarışında ve bu yıl dünyanın dört bir yanındaki diğer önemli seçimlerde yapay zeka destekli deepfake dezenformasyon tufanından korkan uzmanlar arasında alarma neden oldu.

OpenAI, Voice Engine’i test eden ortakların, araç kullanılarak sesi çoğaltılan herhangi bir kişinin açık ve bilgilendirilmiş onayını gerektirmek gibi kuralları kabul ettiğini söyledi. Şirket ayrıca, duydukları seslerin yapay zeka tarafından üretildiğinin izleyicilere açıkça belirtilmesi gerektiğini de sözlerine ekledi. OpenAI, “Voice Engine tarafından üretilen herhangi bir sesin kaynağını izlemek için filigranlama ve nasıl kullanıldığının proaktif olarak izlenmesi de dahil olmak üzere bir dizi güvenlik önlemi uyguladık” dedi.


Kaynak: AFP