Birkaç hafta önce, çok uluslu bir şirketin Hong Kong ofisindeki bir finans çalışanı, bir Haber konferans için e-posta daveti aldı. Gönderen: Birleşik Krallık'tan CFO. Duyuruya göre gizli işlemler yapması gerekiyordu. Çalışan başlangıçta şüphelendi ve bunun bir kimlik avı e-postası olduğunu düşündü, ancak bağlantıyı açıp meslektaşlarının Haber konferans döşemelerinde canlı ve renkli olduğunu görünce endişeleri ortadan kalktı. Patronunuz size yurt dışından yazıp ekibe bilgi verdiğinde neden şüpheleniyorsunuz?
Meslektaşları gerçek görünüyordu ve ses çıkarıyorlardı. Çalışan, talimatları iyi niyetle takip etti ve çeşitli banka hesaplarında 200 milyon Hong Kong doları (24 milyon avroya eşdeğer) değerinde 15 işlem gerçekleştirdi. Çalışan, üst düzey patronundan güvence istediğinde artık çok geçti. Para gitmişti.
Çalışan özellikle kalleş bir dolandırıcılığın tuzağına düşmüştü: Polisin yerel medyaya söylediği gibi, görüntülü görüşmedeki meslektaşlar gerçek değil sahteydi; yapay zekanın yardımıyla hareketli görüntüye dahil edilmişlerdi. Polis, dolandırıcıların suç işlemeden önce Haber kayıtlarını indirip bunları dijital klonları oluşturan yapay zeka sistemini eğitmek için kullandıklarından şüpheleniyor. Faillerin materyali nasıl elde ettiği ve iç kaynakların dinlenip dinlenmediği polis soruşturmasının konusudur.
Günaydın Berlin
Bülten
Kayıt olduğunuz için teşekkürler.
E-postayla bir onay alacaksınız.
İnsanlar ABD Başkanı Joe Biden'dan sahte otomatik çağrılar alıyor
Deepfake'ler çok yaygın. Sadece birkaç gün önce New Hampshire'daki çok sayıda vatandaş ABD Başkanı Joe Biden'dan otomatik sahte çağrılar aldı. Yapay zeka manipülasyonları yalnızca politikacıları ve derin sahte porno görüntüleri internette dolaşan Taylor Swift gibi diğer ünlüleri değil, aynı zamanda giderek artan şirketleri de etkiliyor.
2021'de siber suçlular, Birleşik Arap Emirlikleri'ndeki bir banka müdürünün sesini kopyalamak için yapay zeka araçlarını kullandı ve bir banka çalışanını telefonda 35 milyon dolar dolandırdı. Benzer bir durumda, bir enerji şirketinin genel müdürü, Alman ana şirketin patronunun sesiyle konuşan bir telefon dolandırıcısı tarafından aldatıldı. Kurban, amirinin Alman aksanını duyduğunu sanarak bir Macar hesabına transfer yaptı. Genel müdür, sözde patronun Avusturya'daki bir numaradan aradığını görünce şüphelendi ve ikinci ödemeyi yapamadı. Ancak o zamana kadar hasar zaten oradaydı.
Teknoloji artık çok daha karmaşık ve buna bağlı olarak kötüye kullanım potansiyeli de daha büyük. Ücretsiz olarak sunulan yapay zeka araçları kullanılarak yalnızca birkaç saniyelik eğitim materyali ile telefon numaraları değiştirilebilir ve sesler kopyalanabilir. İstenilen hedef dilde bir metni okuyan bir haber spikeri oluşturmak için yapay zekayı bile kullanabilirsiniz. Ses dolandırıcılıkları da şirketler için önemli riskler oluşturuyor.
Uzaktan çalışmanın çok olduğu sektörlerde belirli riskler var
FBI, 2022'de yayınladığı bir raporda, sözde başvuru sahiplerinin dahili belgelere erişim sağlamak veya kötü amaçlı yazılım enjekte etmek amacıyla Haber röportajlarında sahte kişi gibi davrandıkları uzak işlerin (şirket ofisleri dışındaki mobil çalışma) manipülasyonu konusunda uyarıda bulundu. Corona salgınından bu yana giderek daha fazla iş görüşmesi çevrimiçi yapılıyor. Ancak fiziksel alanın aksine, sanal alanda İK yöneticisi karşınızda oturan gerçek bir kişinin mi, yoksa yüz ifadeleri ve sesi bir bilgisayar tarafından sentezlenen konuşan bir oyuncak bebeğin mi olduğunu pek söyleyemez.
Pek çok uzaktan çalışmanın gerçekleştirildiği endüstrilerde güvenlik açığı özellikle yüksektir. ChatGPT sayesinde bir uygulama hızlı bir şekilde yazılır. Siz farkına varır varmaz, ekibinizde ilk gün intranette dolaşan, güvenlik planları veya yönetim randevuları gibi hassas verilere erişen ve ardından aniden ortadan kaybolan hayalet bir çalışanınız olur. Uzak şirketin İK departmanları uyarıldı. Peki deepfake'leri tanımlamak için ne yapabilirsiniz?
Amerikan işgücü piyasası ve insan kaynakları uzmanı John Sullivan, başvuru sahiplerini işe alırken kapsamlı geçmiş araştırmaları yapılmasını öneriyor. Web sitesinde, İK yöneticilerinin önceden sosyal medya profillerini yakından incelemesi ve CV'deki yayınlar veya pozisyonlar hakkında belirli sorular sorması öneriliyor.
Sert yüz ifadeleri, dudak senkronizasyonu eksikliği, göz kırpma eksikliği
Sahte başvuru yapanların çoğu Rusya, Çin, Kuzey Kore ve Nijerya gibi ülkelerde yaşadığından “CNN nedir?” gibi basit sorular olası dolandırıcıları ortaya çıkarmaya yetiyordu. Deepfake'ler ayrıca teknik yetersizlikler veya göz kırpmama veya dudak senkronizasyonu eksikliği gibi anormalliklerle de tanınabilir. Yüz ifadeleri sıklıkla sert görünür. Gözünüzün önünde fotoğrafın olmadığı telefonda ise durum farklıdır.
Yapay zeka çağında arayanın veya konferans katılımcısının sahte olduğunu varsaymanız gerekir. Belki görüntü ve ses manipülasyonları sonuçta insanların yüz yüze buluşmasına yol açacaktır. Çünkü orada doğru patronun karşınızda oturduğunu biliyorsunuz.
Meslektaşları gerçek görünüyordu ve ses çıkarıyorlardı. Çalışan, talimatları iyi niyetle takip etti ve çeşitli banka hesaplarında 200 milyon Hong Kong doları (24 milyon avroya eşdeğer) değerinde 15 işlem gerçekleştirdi. Çalışan, üst düzey patronundan güvence istediğinde artık çok geçti. Para gitmişti.
Çalışan özellikle kalleş bir dolandırıcılığın tuzağına düşmüştü: Polisin yerel medyaya söylediği gibi, görüntülü görüşmedeki meslektaşlar gerçek değil sahteydi; yapay zekanın yardımıyla hareketli görüntüye dahil edilmişlerdi. Polis, dolandırıcıların suç işlemeden önce Haber kayıtlarını indirip bunları dijital klonları oluşturan yapay zeka sistemini eğitmek için kullandıklarından şüpheleniyor. Faillerin materyali nasıl elde ettiği ve iç kaynakların dinlenip dinlenmediği polis soruşturmasının konusudur.
Günaydın Berlin
Bülten
Kayıt olduğunuz için teşekkürler.
E-postayla bir onay alacaksınız.
İnsanlar ABD Başkanı Joe Biden'dan sahte otomatik çağrılar alıyor
Deepfake'ler çok yaygın. Sadece birkaç gün önce New Hampshire'daki çok sayıda vatandaş ABD Başkanı Joe Biden'dan otomatik sahte çağrılar aldı. Yapay zeka manipülasyonları yalnızca politikacıları ve derin sahte porno görüntüleri internette dolaşan Taylor Swift gibi diğer ünlüleri değil, aynı zamanda giderek artan şirketleri de etkiliyor.
2021'de siber suçlular, Birleşik Arap Emirlikleri'ndeki bir banka müdürünün sesini kopyalamak için yapay zeka araçlarını kullandı ve bir banka çalışanını telefonda 35 milyon dolar dolandırdı. Benzer bir durumda, bir enerji şirketinin genel müdürü, Alman ana şirketin patronunun sesiyle konuşan bir telefon dolandırıcısı tarafından aldatıldı. Kurban, amirinin Alman aksanını duyduğunu sanarak bir Macar hesabına transfer yaptı. Genel müdür, sözde patronun Avusturya'daki bir numaradan aradığını görünce şüphelendi ve ikinci ödemeyi yapamadı. Ancak o zamana kadar hasar zaten oradaydı.
Teknoloji artık çok daha karmaşık ve buna bağlı olarak kötüye kullanım potansiyeli de daha büyük. Ücretsiz olarak sunulan yapay zeka araçları kullanılarak yalnızca birkaç saniyelik eğitim materyali ile telefon numaraları değiştirilebilir ve sesler kopyalanabilir. İstenilen hedef dilde bir metni okuyan bir haber spikeri oluşturmak için yapay zekayı bile kullanabilirsiniz. Ses dolandırıcılıkları da şirketler için önemli riskler oluşturuyor.
Uzaktan çalışmanın çok olduğu sektörlerde belirli riskler var
FBI, 2022'de yayınladığı bir raporda, sözde başvuru sahiplerinin dahili belgelere erişim sağlamak veya kötü amaçlı yazılım enjekte etmek amacıyla Haber röportajlarında sahte kişi gibi davrandıkları uzak işlerin (şirket ofisleri dışındaki mobil çalışma) manipülasyonu konusunda uyarıda bulundu. Corona salgınından bu yana giderek daha fazla iş görüşmesi çevrimiçi yapılıyor. Ancak fiziksel alanın aksine, sanal alanda İK yöneticisi karşınızda oturan gerçek bir kişinin mi, yoksa yüz ifadeleri ve sesi bir bilgisayar tarafından sentezlenen konuşan bir oyuncak bebeğin mi olduğunu pek söyleyemez.
Pek çok uzaktan çalışmanın gerçekleştirildiği endüstrilerde güvenlik açığı özellikle yüksektir. ChatGPT sayesinde bir uygulama hızlı bir şekilde yazılır. Siz farkına varır varmaz, ekibinizde ilk gün intranette dolaşan, güvenlik planları veya yönetim randevuları gibi hassas verilere erişen ve ardından aniden ortadan kaybolan hayalet bir çalışanınız olur. Uzak şirketin İK departmanları uyarıldı. Peki deepfake'leri tanımlamak için ne yapabilirsiniz?
Amerikan işgücü piyasası ve insan kaynakları uzmanı John Sullivan, başvuru sahiplerini işe alırken kapsamlı geçmiş araştırmaları yapılmasını öneriyor. Web sitesinde, İK yöneticilerinin önceden sosyal medya profillerini yakından incelemesi ve CV'deki yayınlar veya pozisyonlar hakkında belirli sorular sorması öneriliyor.
Sert yüz ifadeleri, dudak senkronizasyonu eksikliği, göz kırpma eksikliği
Sahte başvuru yapanların çoğu Rusya, Çin, Kuzey Kore ve Nijerya gibi ülkelerde yaşadığından “CNN nedir?” gibi basit sorular olası dolandırıcıları ortaya çıkarmaya yetiyordu. Deepfake'ler ayrıca teknik yetersizlikler veya göz kırpmama veya dudak senkronizasyonu eksikliği gibi anormalliklerle de tanınabilir. Yüz ifadeleri sıklıkla sert görünür. Gözünüzün önünde fotoğrafın olmadığı telefonda ise durum farklıdır.
Yapay zeka çağında arayanın veya konferans katılımcısının sahte olduğunu varsaymanız gerekir. Belki görüntü ve ses manipülasyonları sonuçta insanların yüz yüze buluşmasına yol açacaktır. Çünkü orada doğru patronun karşınızda oturduğunu biliyorsunuz.