T.C. MARMARA ÜNİVERSİTESİ
ATATÜRK EĞİTİM FAKÜLTESİ
BİLGİSAYAR VE ÖĞRETİM TEKNOLOJİLERİ EĞİTİMİ BÖLÜMÜ
2025-2026 EĞİTİM ÖĞRETİM YILI BAHAR DÖNEMİ
BİLİŞİM ETİĞİ DERSİ
MAKALE İNCELEME RAPORU
Hazırlayan: Feyat Türkmen 100223025

İÇİNDEKİLER

MAKALE ADI: 3

YAZAR(LAR): 3

MAKALE KÜNYESİ (APA STANDARDI): 3

MAKALE ERİŞİM ADRESİ: 3

GİRİŞ.. 3

ARAŞTIRMANIN AMACI 4

YÖNTEM.. 4

  1. ARAŞTIRMA MODELİ: 4
  2. EVREN ÖRNEKLEM / ÇALIŞMA GRUBU: 4
  3. VERİ TOPLAMA ARACI: 4
  4. VERİLER ve TOPLANMASI / UYGULAMA SÜRECİ: 4
  5. VERİLERİN ANALİZİ: 4

BULGULAR ve TARTIŞMA.. 5

  1. BULGULAR: 5
  2. TARTIŞMA VE SONUÇ: 5

SONUÇ VE ÖNERİLER.. 6

İNCELEME SONUÇLARI VE ÖNERİLER.. 6

 

MAKALE ADI

Otonom Araçlarda Haksız Fiil Sorumluluğu

YAZAR(LAR)

Ahmet SEYHAN: Eskişehir Barosu, ahmetseyhan@seyhanpartners.com

MAKALE KÜNYESİ (APA STANDARDI)

Seyhan, A. (2025). Otonom Araçlarda Haksız Fiil Sorumluluğu. İstanbl Aydın Üniversitesi Hukuk Fakültesi Dergisi, 11(1), 47-83. https://izlik.org/JA36AB39FP

MAKALE ERİŞİM ADRESİ

https://dergipark.org.tr/tr/pub/iauhfd/article/1663880#article_cite

GİRİŞ

Makale, günümüzde teknolojinin artık tahmin edilemez bir hızla ilerlediğini ve bir zamanlar sadece bilim kurgu filmlerinde gördüğümüz hayallerin (özellikle pandemi sürecinin yarattığı bireyselleşme ve teknoloji odaklı yeni dünya düzeniyle birlikte) hızla gerçeğe dönüştüğünü vurgulayarak başlıyor. Bu sürecin en somut ve devrimsel örneği ise yapay zekâ teknolojisidir.

Yazar, 1950’lerde Alan Turing ile başlayan “makineler düşünebilir mi?” sorusunun bugün pratik bir karşılık bulduğunu belirtiyor. Otonom araçlar; sensörler (lidar, radar, kameralar), yapay zekâ algoritmaları ve makine öğrenimi sayesinde çevresini algılayan, insan müdahalesi olmadan karar veren ve bu kararları uygulayan sistemler olarak tanımlanıyor.

Teknolojik başarıların ötesinde, bu araçların toplumsal hayata entegrasyonu ciddi bir çatışmayı da beraberinde getirmektedir. Yazar, otonom araçların trafik kazalarını azaltma ve enerji verimliliği sağlama potansiyelini kabul ederken; siber güvenlik açıkları, etik ikilemler (karar verme anları) ve kaza anında sorumluluğun kime ait olacağı gibi konuların hukuki bir boşluk yarattığına dikkat çeker.

Otonom araçların sadece mühendislik açısından kusursuz olması yeterli değildir. Bu araçların yollara çıkabilmesi için toplum tarafından kabul görmesi ve ortaya çıkabilecek “haksız fiil” (zarar verme) durumlarında hukukun nasıl işleyeceğinin netleşmesi gerekmektedir. Bu ihtiyaçlara binaen makale de yapay zeka kavramından yola çıkarak otonom araçlardaki sorumluluk kavramını analiz eder.

ARAŞTIRMANIN AMACI

Otonom araçların işletilmesi sırasında ortaya çıkabilecek hukuki sorumlulukları incelemek ve mevcut mevzuatın (kusur, kusursuz ve tehlike sorumluluğu gibi) bu yeni teknoloji karşısında yeterli olup olmadığını tartışmaktır. Ayrıca siber saldırılar ve yazılım hatalarının sorumluluk üzerindeki etkisi ile yapay zekâya hukuki kişilik tanınması tartışmalarını değerlendirmeyi hedefler.

YÖNTEM

1.    ARAŞTIRMA MODELİ

Nitel araştırma yöntemlerinden olan doküman analizi ve betimsel analiz yöntemini kullanan bir araştırma makalesi’dir. Mevcut hukuki teoriler otonom araçlar özelinde analiz edilmiştir.

2.    EVREN ÖRNEKLEM / ÇALIŞMA GRUBU

Bu bir saha araştırması olmadığı için çalışma grubu yerine; mevcut hukuk literatürü, Türk/İsviçre hukuku yaklaşımları ve teknolojik gelişmeler inceleme alanını oluşturur.

3.    VERİ TOPLAMA ARACI

Mevcut mevzuat, akademik yayınlar, dergi makaleleri ve teknolojik raporlar veri toplama aracı olarak kullanılmıştır.

4.    VERİLER ve TOPLANMASI / UYGULAMA SÜRECİ

Yazılı literatür taranarak otonom araçların seviyeleri ve bu seviyelere uygun düşen sorumluluk rejimleri karşılaştırmalı olarak derlenmiştir

5.    VERİLERİN ANALİZİ

Bu çalışmada veriler analiz edilirken, karmaşık hukuk kuralları ile hızla gelişen teknoloji arasındaki o görünmez köprüyü kurmaya odaklanılmıştır. Analiz süreci, sadece kanun maddelerini alt alta dizmek yerine; otonom araçların “beyni” sayılan yapay zekâ algoritmalarının aldığı bir kararın, mevcut yasalarımızdaki “kusur” ve “sorumluluk” kavramlarıyla ne kadar örtüştüğünü sorgulayarak yürütülmüştür. Teknik veriler ile hukuki doktrinler bir araya getirilmiş; özellikle bir kaza anında “insan sürücü” devreden çıktığında sorumluluk zincirinin kime uzandığı, mantıksal bir süzgeçten geçirilerek yorumlanmıştır. Kısacası analizler, teknolojinin soğuk yüzü ile hukukun koruyucu eli arasındaki dengeyi bulmayı amaçlayan, eleştirel ve çözüm odaklı bir bakış açısıyla gerçekleştirilmiştir.      

BULGULAR ve TARTIŞMA

1.    BULGULAR

Makale kapsamında yapılan incelemeler, otonom araç teknolojisinin yalnızca teknik bir gelişim olmadığını, bilişim etiği ve hukukunun kesişim noktasında çok katmanlı sorunlar barındırdığını ortaya koymuştur. Araştırmada elde edilen bulgular, otonom sürüş seviyeleri (SAE standartları) yükseldikçe, etik ve hukuki sorumluluğun “insan sürücüden” tamamen koptuğunu ve “yazılım/üretici” odağına kaydığını göstermektedir. Özellikle Seviye 4 ve Seviye 5 tam otonom sistemlerde, aracın kontrolü tamamen algoritmalara geçtiği için, kaza anında geleneksel “sürücü kusuru” analizi yapılamamakta; bu durum bilişim etiği açısından “algoritmik karar verme” süreçlerinin şeffaflığı sorununu doğurmaktadır.

İnceleme sonuçlarına göre, otonom araçlarda en yaygın etik ve güvenlik risklerinin; yazılımsal algoritma hataları, sensörlerin çevresel verileri yanlış yorumlaması ve dış müdahalelere açık siber güvenlik açıkları olduğu belirlenmiştir. Makalede, bir siber saldırı sonucu (hacking) aracın kontrolünün ele geçirilmesi durumunda, ortaya çıkan zararın “haksız fiil” kapsamında değerlendirilmesinin mevcut yasalarla (TBK ve KTK) oldukça güç olduğu saptanmıştır. Zira mevcut mevzuatın halen “direksiyon başında fiziksel bir denetçi” varsayımıyla hareket ettiği, ancak otonom sistemlerde bu kişinin etik olarak “yolcu” statüsüne evrildiği bulgulanmıştır.

Aracın bir kaza anında kaçınılmaz bir zarar verme durumunda kalması (örneğin; yayaya mı çarpmalı yoksa bariyerlere mi?) “etik ikilemlerin programlanması” sorununu ortaya çıkarmaktadır. Bulgular, bu tür kararların insan vicdanından yoksun matematiksel modellemelerle yapılmasının, toplum nezdinde güven problemleri yarattığını ve mağdurların tazminat haklarını ararken “illiyet bağı” kurmakta zorlandıklarını göstermektedir. Ayrıca, üretici firmaların yazılım güncellemelerini ihmal etmesi veya siber güvenlik standartlarına uymaması, en yüksek etik dışı/ihmalkar davranışlar arasında sınıflandırılmış; buna karşın sistemlerin tamamen kusursuz çalışmasının mevcut teknolojiyle henüz mümkün olmadığı sonucuna varılmıştır.

2.    TARTIŞMA VE SONUÇ

Makalede elde edilen veriler ışığında yapılan tartışmalar, otonom araçların sadece teknik bir başarı değil, bilişim etiği açısından “sorumluluğun öznasızlaşması” sorunu olduğunu ortaya koymaktadır. Geleneksel hukuk anlayışımızda sorumluluk, bir insanın iradesi ve kusuru üzerine inşa edilmişken; otonom sistemlerde kararların algoritmalar tarafından alınması, “fail” kavramını belirsizleştirmektedir. Tartışmaların odağında, bir kaza anında yazılımın yaptığı tercihin etik değeri yer almaktadır. Araştırmacı, makinelerin etik kararlar vermesinin imkansızlığını ve bu kararların matematiksel birer olasılık hesabı olduğunu vurgulayarak, bu durumun insan hayatı üzerindeki risklerini bilişim güvenliği çerçevesinde sorgulamaktadır.

Sonuç olarak inceleme, otonom araçların karıştığı haksız fiillerde mevcut “Kusur Sorumluluğu” ilkesinin yetersiz kaldığını göstermektedir. Çünkü bir yazılım hatası veya siber saldırı durumunda, araç sahibine kusur yüklemek bilişim etiği prensipleri ile bağdaşmamaktadır. Araştırmacı, bu noktada “Tehlike Sorumluluğu” veya “Üretici Sorumluluğu” modellerinin daha adil bir çözüm sunacağı sonucuna varmıştır. Yapay zekânın neden olduğu zararların tazmin edilmesi için sadece teknolojik gelişmişliğin yeterli olmadığı, aynı zamanda şeffaf, hesap verebilir ve etik değerlere dayanan yeni bir bilişim hukuku rejiminin kurulmasının zorunlu olduğu saptanmıştır.

SONUÇ VE ÖNERİLER

İncelediğim makalenin sonuçları, otonom sürüş teknolojisinin aslında klasik hukuk anlayışımız için ne denli büyük bir tehdit ve aynı zamanda fırsat olduğunu açıkça ortaya koyuyor. Ahmet Seyhan’ın saptamalarına katılarak şunu söyleyebilirim ki; otonom araçları basit birer ulaşım aracı olarak değil, doğrudan yüksek riskli teknolojik faaliyetler sınıfında değerlendirmeliyiz. Zira Türk Borçlar Kanunu’nun o çok bildiğimiz ‘kusur sorumluluğu’ ilkesi, ortada kusur atfedilecek bir insan sürücü kalmadığı anda maalesef işlevsiz bir hale bürünüyor.

Özellikle KTK 85 ve 86. maddeler üzerindeki tartışmalar oldukça çarpıcı. Mevcut yasalarımızda araç sahibi (işleten), araçtaki bir bozukluğun kazaya yol açmadığını kanıtlayarak sorumluluktan sıyrılabilme imkanına sahip. Ancak 5. Seviye dediğimiz tam otonom araçlarda durum tam tersine dönüyor: Araç zaten bir yazılımdan ibaret olduğu için meydana gelen her kaza, otomatik olarak bir sistem hatası ya da yazılım kusuru’şeklinde yorumlanmaya açık. Bu da araç sahibini, teknik olarak asla ispatlayamayacağı bir yükün altına sokuyor.

Bilişim etiği penceresinden baktığımda ise asıl krizin ‘etik algoritma tercihleri’ noktasında düğümlendiğini görüyorum. Makalede verilen o meşhur çocuk ile duvar arasındaki seçim örneği, aslında bir yazılım hatası değil, programcının o araca yüklediği ahlaki değer yargısıdır. Bu durum bize şunu gösteriyor: Gelecekte bir mahkeme, sadece kazayı değil, o algoritmanın hangi ahlaki öncelikle kodlandığını da yargılamak zorunda kalacaktır.

Kendi çıkarımım ve yazarın ulaştığı sonuçların sentezi olarak; yapay zekaya bugünden yarına hukuki bir kişilik tanınması ütopik bir beklenti olabilir. Fakat mevcut tehlike sorumluluğu kavramını esneterek, sorumluluk oklarını araç sahibinden ziyade, otonom sistemi piyasaya süren üretici ve yazılımcı devlerine yönelten hibrit bir hukuk düzenine geçilmesinin kaçınılmaz olduğunu düşünüyorum. Aksi halde, teknoloji ilerlerken adalet duygusu yerinde sayacaktır.

İNCELEME SONUÇLARI VE ÖNERİLER

Yapılan derinlemesine inceleme sonucunda ulaşılan temel yargı; otonom sistemlerin, klasik hukuk rejiminin “insan kusuru” üzerine kurulu olan temel direklerini temelinden sarstığıdır. Makalenin ortaya koyduğu “sorumluluk boşluğu”, aslında sadece hukuki bir boşluk değil, aynı zamanda etik bir çıkmazdır. Bir algoritmanın kendi başına aldığı ve bir kazaya yol açan kararı, mevcut işleten sorumluluğu ile açıklamak her zaman adil sonuçlar doğurmayacaktır. Bu noktada, etik açıdan hesap verilebilirliğin sadece araç sahibinde değil; yazılımcı, üretici ve son kullanıcı arasında, tıpkı bir zincirin halkaları gibi paylaştırılması gerektiği kanaatindeyim.

Özellikle metinde geçen “elektronik kişilik” tartışması, yapay zekayı pasif bir objeden çıkarıp “ahlaki bir aktör” mertebesine yükseltiyor ki bu, hukuk tarihimiz için devrimsel bir bakış açısıdır. Siber güvenlik açıklarından kaynaklanan riskler ve algoritma hataları ele alındığında, “şeffaflık” ve “zarar vermeme” gibi etik ilkelerin sadece birer tavsiye kararı olmaktan çıkıp, yasal birer zorunluluk haline getirilmesi gerektiği açıkça görülmektedir.

Benim bu incelemeden çıkardığım en önemli öneri ise; sistemlerin daha tasarım aşamasındayken etik değerlerle örülmesi gerektiğidir. Teknolojinin hızıyla yarışamayan mevzuatların yarattığı adaletsizlik hissini ancak, riskin tüm topluma yayıldığı “zorunlu sigorta havuzları” gibi kolektif çözümlerle aşabiliriz. Özetle, otonom sistemlerin “karar verme” yetkisini hukuk nezdinde bir karşılığa oturtmazsak, teknoloji ilerlese bile toplumun adalete olan güveni bu süreçte ciddi yaralar alacaktır.

 

Hazırlayan: Feyat Türkmen 100223025

——————-   

Bu inceleme Creative Commons Atıf-AynıLisanslaPaylaş 4.0 Uluslararası Lisansı ile lisanslanmıştır. Makale lisansı hakkında ilgili yazar ya da yayıncıdan bilgi alınız.