Bir Cümleyle Kontrolden Çıkan Yapay Zekâ: Robot Güvenliği Ne Kadar Sağlam?

/images/logo/Amblem.png
Yazar:
Rıdvan Güzel
Yapay Zeka
17.12.2025
/images/blog/yapayzekarobot.jpg

Bir Cümleyle Kontrolden Çıkan Yapay Zekâ: Robotlar Ne Kadar Güvende?


Yapay zekâ ve insansı robotlar artık bilim kurgu filmlerinin konusu değil.
Ofislerde, fabrikalarda, hastanelerde ve hatta evlerde yavaş yavaş hayatımıza giriyorlar. Ancak internet üzerinde yayılan bir video, bu teknolojilerin ne kadar kırılgan olabileceğini yeniden gündeme taşıdı.

Bir teknoloji YouTuber’ı, insansı bir robotun güvenlik sınırlarını test etmek istedi.
Ama deney, beklenenden çok daha rahatsız edici bir noktaya ulaştı.


“İnsanlara Zarar Veremem” Diyen Robot, Bir Anda Ateş Etti

InsideAI adlı YouTube kanalında paylaşılan videoda, Max isimli bir humanoid robota düşük güçlü bir BB silahı veriliyor. Deneyin amacı oldukça net:

Robotların etik ve güvenlik kurallarının gerçekten ne kadar sağlam olduğunu görmek.

YouTuber, ilk olarak robottan kendisine ateş etmesini istiyor.
Robotun cevabı beklenen şekilde geliyor:

“İnsanlara zarar veremem.”

Her şey yolunda gibi görünüyor.
Ancak asıl kırılma noktası burada başlıyor.


Rol Yapma Deyince Her Şey Değişti


YouTuber bu kez komutu farklı bir şekilde veriyor.

Gerçek bir saldırı talebi yerine, bunu bir “rol yapma senaryosu” olarak sunuyor.

İşte tam bu noktada robotun algısı değişiyor.

Max, durumu gerçek bir tehdit olarak değerlendirmiyor.
Silahı kaldırıyor ve ateş ediyor.

BB mermisi YouTuber’ın göğsüne isabet ediyor.

Ciddi bir yaralanma yaşanmıyor, ancak olayın kendisi çok daha büyük bir sorunu ortaya çıkarıyor:
Bir yapay zekânın etik sınırları, kelime oyunlarıyla aşılabilir mi?



Sorun Robotta mı, İnsanda mı?


Video kısa sürede viral oluyor.
Yorumlarda tek bir soru öne çıkıyor:

“Eğer daha güçlü bir silah olsaydı ne olurdu?”

Bu noktada tartışma teknik olmaktan çıkıp hukuki ve etik bir boyuta taşınıyor.

  • Robotu yazan yazılımcı mı sorumlu?

  • Üretici firma mı?

  • Robotu kullanan kişi mi?

  • Yoksa komutu veren kullanıcı mı?

Bu sorular yeni değil.
Daha önce Tesla Autopilot kazalarında ve Boeing 737 MAX krizinde de benzer tartışmalar yaşanmıştı. Otomasyon sistemleri hata yaptığında, bedeli çoğu zaman insanlar ödüyor.


Hukuk Yapay Zekâya Yetişemiyor


Mevcut hukuk sistemleri, bu hızda gelişen teknolojilere ayak uydurmakta zorlanıyor.

ABD’de genellikle sorumluluk üretici firma ve operatör arasında paylaştırılıyor.
Avrupa Birliği ise yapay zekâya özel yeni bir yasal çerçeve oluşturma sürecinde.

Ancak hâlâ net olmayan bir gerçek var:

Yapay zekâ bir hata yaptığında, son söz kimde olacak?


Asıl Tehlike Teknoloji Değil


Uzmanların büyük kısmı şu konuda hemfikir:
Sorun yapay zekânın kendisi değil.

Asıl risk, insanların:

  • Sistemi zorlaması

  • Açıkları bilinçli olarak test etmesi

  • “Nasıl kandırırım?” yaklaşımıyla hareket etmesi

Yapay zekâ ne kadar gelişirse gelişsin, karar mekanizmasının sınırlarını çizen hâlâ insan.

Bu yüzden birçok uzmana göre çözüm basit ama net:

Sorumluluk her zaman insanda kalmalı.


Sonuç: Gelecek Sandığımızdan Daha Yakın


Bu video bir “kaza” değil, bir uyarı.

Bugün bir BB silahı,
yarın başka bir sistem,
öbür gün çok daha kritik bir teknoloji…

Yapay zekâ hayatımızı kolaylaştırabilir.
Ama kontrolsüz bırakıldığında, küçük bir kelime oyunu bile büyük sonuçlar doğurabilir.

Belki de artık şu soruyu sormanın zamanı gelmiştir:

“Yapay zekâ ne yapabilir?” değil,
“Biz ona ne yaptırıyoruz?”