Trump, yapay zeka için denetim sistemi emri verdi
Trump yönetiminin, yapay zeka alanındaki serbest yaklaşımı geride bırakarak yeni modeller için resmi inceleme ve risk değerlendirme mekanizmaları üzerinde çalıştığı belirtildi.
ABD’de yapay zeka düzenlemelerine ilişkin yeni bir süreç gündeme geldi. The New York Times’ın ABD’li yetkililer ve sürece yakın kaynaklara dayandırdığı bilgilere göre, Donald Trump yönetimi, yeni yapay zeka modellerinin piyasaya sunulmadan önce güvenlik kriterlerinden geçirilmesini öngören resmi denetim yapıları üzerinde çalışıyor. Beyaz Saray’ın teknoloji şirketleri ile kamu kurumlarını bir araya getirecek yeni bir mekanizma kurmayı değerlendirdiği aktarıldı.
ABD YAPAY ZEKA DÜZENLEMELERİNDE YENİ DÖNEM GÜNDEMDE
ABD Başkanı Donald Trump yönetiminin, daha önce yapay zeka sektörüne yönelik benimsediği daha serbest politika çizgisinden geri adım attığı ifade edildi. Yeni yaklaşımın, özellikle yüksek kapasiteli yapay zeka modellerine yönelik resmi kontrol ve değerlendirme süreçlerini içermesi planlanıyor.
Haberde yer alan bilgilere göre Washington yönetimi, yapay zekanın yalnızca ekonomik değil, güvenlik ve kamu düzeni açısından da doğurabileceği sonuçları daha yakından izlemeye hazırlanıyor. Bu nedenle Beyaz Saray bünyesinde daha kurumsal bir çerçeve oluşturulması gündeme geldi.
BEYAZ SARAY TEKNOLOJİ ŞİRKETLERİYLE YENİ YAPI KURMAYI DEĞERLENDİRİYOR
The New York Times’ın aktardığına göre Beyaz Saray, teknoloji şirketleri ile kamu kurumlarını bir araya getirecek yeni bir yapı üzerinde çalışma yürütüyor. Bu yapının, yapay zeka alanındaki gelişmeleri doğrudan izleyen ve risk analizine katkı sunan bir koordinasyon mekanizması olarak tasarlandığı belirtiliyor.

Plan kapsamında, özel sektör ile kamu arasında daha düzenli bilgi paylaşımı sağlanması amaçlanıyor. Böylece hükümetin, piyasaya çıkacak gelişmiş modeller hakkında daha erken aşamada değerlendirme yapabilmesinin önü açılmak isteniyor.
YENİ NESİL MODELLER İÇİN GÜVENLİK İNCELEMESİ MASADA
Taslak düzenleme çalışmasına göre, yapay zeka modellerinin piyasaya sürülmeden önce belirli güvenlik kriterlerinden geçirilmesi hedefleniyor. Özellikle yeni nesil ve yüksek kapasiteli sistemlerin olası etkilerinin önceden değerlendirilmesi için resmi bir inceleme süreci oluşturulması üzerinde duruluyor.
Bu yaklaşımın, olası zararları piyasaya çıktıktan sonra değil, daha model kullanıma sunulmadan önce tespit etmeyi amaçladığı ifade ediliyor. Planlanan sistemin, riskli kullanım alanlarını belirleme ve bu alanlara karşı önleyici politika geliştirme işlevi görmesi bekleniyor.
İNGİLTERE MODELİNDEN ESİNLENEN ÇERÇEVE GÜNDEMDE
Sürece yakın kaynaklara göre ABD’de tartışılan yapının, İngiltere’de uygulanan benzer bir modelden esinlenerek şekillendirilebileceği değerlendiriliyor. Bu tür modellerde, yüksek etkili yapay zeka sistemlerinin teknik kapasitesi ile toplumsal sonuçları birlikte inceleniyor.
Amaç, yalnızca teknolojik ilerlemeyi izlemek değil, aynı zamanda kötüye kullanım risklerini ve kritik altyapılar üzerindeki muhtemel etkileri önceden analiz etmek. Bu nedenle denetim yapısının teknik uzmanlık ile kamu güvenliği yaklaşımını bir araya getirmesi planlanıyor.
OPENAI, GOOGLE VE ANTHROPIC GİBİ ŞİRKETLER SÜRECE DAHİL EDİLEBİLİR
Beyaz Saray’ın planı kapsamında OpenAI, Google ve Anthropic gibi büyük teknoloji şirketlerinin üst düzey yöneticilerinin yer alacağı bir çalışma grubunun kurulmasının değerlendirildiği aktarıldı. Bu grubun hükümet yetkilileriyle doğrudan iletişim halinde olması bekleniyor.

Söz konusu çalışma grubunun, yapay zekadaki teknik ilerlemeleri düzenli biçimde takip ederek kamu tarafına bilgi aktarması amaçlanıyor. Böylece hem politika yapım sürecinin hızlandırılması hem de teknik gelişmelerin sahadan alınan verilerle değerlendirilmesi planlanıyor.
ULUSAL GÜVENLİK VE SİBER RİSKLER DE DEĞERLENDİRİLECEK
Yetkililerin değerlendirmelerine göre kurulması planlanan mekanizma yalnızca teknik inovasyonu değil, siber güvenlik riskleri, askeri kullanım senaryoları ve ulusal güvenlik etkilerini de kapsayacak. Yapay zekanın farklı alanlardaki etkileri, daha geniş bir kamu güvenliği perspektifiyle ele alınacak.
Bu çerçevede, kritik yazılım sistemleri, savunma teknolojileri, bilgi güvenliği ve olası saldırı senaryoları gibi başlıkların da düzenleme tartışmalarında önemli yer tutacağı ifade ediliyor. Çalışma grubunun bu alanlardaki verileri politika geliştirme süreçlerine taşıması hedefleniyor.
BEYAZ SARAY’IN ÖN GÖRÜŞMELER YAPTIĞI BİLDİRİLDİ
Haberde yer alan bilgilere göre Beyaz Saray, ilgili teknoloji şirketleriyle planın ana hatlarına ilişkin ön görüşmeler gerçekleştirdi. Bazı üst düzey yöneticilere, üzerinde çalışılan mekanizmanın genel çerçevesi hakkında bilgi verildiği belirtildi.
Bu temasların, resmi bir düzenleme metninden önce sektör görüşlerinin alınması amacı taşıdığı değerlendiriliyor. Böylece hem teknik gerçekliklerin dikkate alınması hem de olası düzenlemelerin uygulanabilirliğinin artırılması amaçlanıyor.
MYTHOS MODELİ TARTIŞMALARI HIZLANDIRDI
Yapay zeka düzenlemelerine ilişkin tartışmaların, nisan ayında Anthropic tarafından geliştirilen “Mythos” adlı modelin tanıtım süreciyle hız kazandığı aktarıldı. Söz konusu modelin, özellikle yazılım sistemlerindeki bilinmeyen açıkları tespit edebilme ve bu açıkları kullanabilme kapasitesi nedeniyle dikkat çektiği ifade edildi.

Bu teknik özelliklerin, modelin potansiyel faydaları kadar olası zararlarını da gündeme taşıdığı belirtildi. Yetkililer ve sektör temsilcileri açısından bu gelişmenin, gelişmiş modellerin denetim ihtiyacını daha görünür hale getirdiği değerlendiriliyor.
KÖTÜYE KULLANIM VE SİBER SALDIRI RİSKİ ÖNCELİKLİ KONULAR
Modelin bazı kapasite özellikleri, kötüye kullanım ihtimali üzerinden yoğun tartışma yarattı. Şirket tarafından yapılan açıklamada, yanlış amaçlarla kullanılmasının küresel ekonomi ve ulusal güvenlik üzerinde ciddi etkiler doğurabileceği değerlendirmesine yer verildi.
Bu nedenle modelin genel kullanıma sunulmadığı bilgisi paylaşıldı. ABD’de gündeme gelen yeni denetim tartışmalarının da tam olarak bu tür yüksek riskli yapay zeka sistemlerinin nasıl kontrol edileceği sorusuna odaklandığı görülüyor.