16.06.2025
weather
19°
Sigorta Kulisi InsurTech Yapay zekâ bizi kandırıyor mu? Bilgi güvenliği yeni küresel risk

Yapay zekâ bizi kandırıyor mu? Bilgi güvenliği yeni küresel risk

2025 Küresel Riskler Raporu’na göre yanıltıcı bilgi, en büyük tehditlerden biri. NewsGuard raporlarına göre yapay zekanın hata payı %41’in üzerinde

2025 Dünya Ekonomik Forumu Küresel Riskler Raporu, önümüzdeki iki yılın en büyük küresel risklerinden birinin yanıltıcı ve yanlış bilgi yayılımı olduğunu ortaya koydu. 2035’e kadar ise bu risk, doğal kaynakların azalması ve iklim krizi gibi tehditlerle birlikte en kritik beş risk arasında yer alıyor.

Teknolojinin baş döndürücü şekilde gelişmesi bilgiye erişimi kolaylaştırsa da, bilginin doğruluğuna duyulan güven giderek zayıflıyor. Google’ın kısa süre önce tanıttığı Veo 3 gibi hiper-gerçekçi video üretimi sağlayan modeller, yaratıcı anlatımı desteklerken, deepfake (sahte video) tehlikesini de artırıyor. Gerçek ile kurgunun sınırlarının silikleştiği bu dönemde, bilgi doğruluğunu ayırt etmek her zamankinden daha zor hale geliyor.

Yapay Zeka Yanılma Oranı: %41,52

NewsGuard tarafından yayımlanan AI Misinformation Monitor raporlarına göre; ChatGPT, DeepSeek gibi en yaygın kullanılan 11 yapay zeka sohbet robotunun analizlerinde çarpıcı sonuçlar ortaya çıkıyor:

Modellerin %30,9’u yanlış bilgileri tekrar ediyor

%10,6’sı sorulara yanıt veremiyor veya kaçamak cevap veriyor

Sadece %58,48 oranında doğru bilgi veriliyor

Bu veriler, toplamda %41,52'lik bir hata oranına işaret ediyor. Yani yapay zekâ modelleri, güncel veri erişimine sahip olsalar da bilgi doğruluğu açısından dikkatle değerlendirilmesi gereken araçlar olmaya devam ediyor. Teknolojik gelişmelerin hızına karşın, doğruluk ve güvenlik sistemlerinin yeterince hızlı gelişmediği gerçeği açıkça ortaya konuluyor.

Gilda & Partners Kurucusu Jilda Bal

 Kurumsal Hayatta Yanlış Bilginin Bedeli Ağır

Yanıltıcı bilgi, özellikle kurumsal dünyada önemli riskler barındırıyor. Doğruluğu teyit edilmemiş bir içerik üzerinden hazırlanan yönetim sunumları, hatalı regülasyon yorumları ya da eksik analizler; şirketlerin stratejik kararlarında sapmalara ve kurumsal itibar kaybına yol açabiliyor.

Yapay zekâ araçlarının sunduğu hız ve verimlilik avantajlarından faydalanırken, doğrulama mekanizmaları oluşturmak artık bir tercih değil, zorunluluk haline geliyor.

“Dijital Dönüşümde Güvenlik Filtresi İnsan Olmalı”

Gilda & Partners Kurucusu Jilda Bal, dijital dönüşüm sürecinde yapay zekanın yaygınlaşmasına dikkat çekerken, bu araçlara mutlak güven duyulmasının tehlikelerine işaret ediyor:

“Artık hepimizin cebinde bir yapay zeka var. Ancak bu araçların sunduğu her veriye sorgulamadan güvenmek mümkün değil. Genelde kararlar alırken birden fazla kaynaktan doğrulama yapıyoruz; aynı yaklaşımı yapay zeka sonuçları için de göstermeliyiz. Yapay zeka hızlı olabilir ama etik süzgeçleri yok. Güven filtresi hâlâ bizde. Veri arttıkça, doğruya ulaşma sorumluluğu da bize düşüyor.”

Bal, özellikle insan kaynakları alanında yapay zeka destekli kararların kritik sonuçlar doğurabileceğini vurguluyor:

“%41,52'lik hata oranı sadece bir istatistik değil. Bu oran; bir adayın kariyerini, bir çalışanın güvenini, bir liderin kararını etkileyebilir. İK uzmanları olarak teknolojiyi akıllıca kullanmak ancak insanı merkeze alarak mümkün. Yön duygumuzu kaybetmeden, etik pusulamızı açık tutmak zorundayız.”

Yorumlar
* Bu içerik ile ilgili yorum yok, ilk yorumu siz yazın, tartışalım *