DeepSeek yasakları devam ediyor: Avustralya da furyaya katıldı

Teknoloji, 2025.02.05 13:48

Avustralya, veri güvenliğiyle ilgili endişeler nedeniyle Çin merkezli yapay zeka sohbet botu DeepSeek'in hükümet sistemleri ve cihazlarında kullanımını yasakladı.

DeepSeek yasakları devam ediyor: Avustralya da furyaya katıldı

İçişleri Bakanlığı Sekreteri Stephanie Foster, konuyla ilgili yaptığı açıklamada, "DeepSeek'in kullanımı, Avustralya hükümeti için kabul edilemez düzeyde bir güvenlik riski oluşturuyor" ifadelerini kullandı.

AVUSTRALYA'DAN DEEPSEEK'E YASAK KARARI

hisse.net'te yer alan habere göre; Avustralya, veri güvenliği konusundaki endişeler nedeniyle Çinli yapay zeka sohbet botu DeepSeek'in hükümet sistemleri ve cihazlarında kullanılmasını yasakladı.

İçişleri Bakanlığı Sekreteri Stephanie Foster, tüm kamu kurumlarının DeepSeek ile ilgili ürünlere, uygulamalara ve web servislerine erişimini engellemesini ve mevcut kullanımın tamamen sonlandırılmasını talep etti.

Foster yaptığı açıklamada, "DeepSeek'in kullanımı, Avustralya hükümeti için kabul edilemez düzeyde bir güvenlik riski oluşturuyor" ifadelerini kullandı.

DEEPSEEK KÜRESEL ÇAPTA TARTIŞMA YARATIYOR

Ocak ayında düşük maliyetli yapay zeka modellerinin yaygınlaşmasıyla adından sıkça söz ettiren DeepSeek, küresel çapta tartışmalara neden olmuştu. Avustralya, bu uygulamayı yasaklayan ilk ülke değil. İtalya'nın veri koruma otoritesi de ocak ayının sonunda DeepSeek'e ülke genelinde yasak getirdi.

ABD'DE DEEPSEEK'E KARŞI ÖNLEMLER ARTIYOR

ABD hükümeti henüz resmi bir yasak kararı almamış olsa da, ABD Donanması ve NASA gibi bazı federal kurumlar, güvenlik ve gizlilik kaygıları nedeniyle DeepSeek'e erişimi engelledi. Bununla birlikte, Teksas eyaleti ulusal güvenlik riskleri gerekçesiyle DeepSeek'i hükümet cihazlarında yasaklayan ilk ABD eyaleti oldu.

TRUMP'TAN DEEPSEEK YORUMU: "BİR UYANIŞ ÇAĞRISI"

ABD Başkanı Donald Trump ise DeepSeek'in küresel yükselişini "ABD teknoloji sektörü için bir uyanış çağrısı" olarak değerlendirdi.

Kaynak: BURSADA BUGÜN

Teknoloji, 2025.02.05 13:48