İÇİNDEKİLER

Özet

Yapay Zekâ

Otonom Araçlar

Yapay Zeka ve Etik Sorunları

Robot Etiği

Otonom Araçlar ve Etik Sorunları

Sonuç

Kaynakça

 

ÖZET

İnternetin ilk olarak askeri ihtiyaçlar sebebiyle ortaya çıktığı bilinmektedir. Günümüzde internet, ortaya çıkmasından çok farklı amaçlarla kullanılmaktadır ve her geçen gün kullanım alanı artmaktadır. İnternetin ortaya çıkışından bu yana yaşanan gelişmeler sayesinde yapay zekâ, büyük veri, sanal gerçeklik, nesnelerin interneti, otonom araçlar teknolojilerinde de çok büyük gelişmelere imza atılmıştır (Çankaya, 2019). Tüm bu teknolojik yenilikler insanların yaşam tarzını kökünden değiştirecek mahiyettedir ve birçok etik sorunu da beraberinde getirmektedir (Çankaya, 2019). Bu araştırma kapsamında gelişen teknolojinin getirdiği yenilikler ve etik sorunlar hakkında bilgi verilmeye çalışılacaktır.

 

Yapay Zekâ

Yapay zekâ, genel olarak insana ait olan düşünme, akıl yürütme, algılama, yargılama, sonuç çıkarma yeteneklerinin belli ölçüde taklit edilmesi yeteneği olarak tanımlanmaktadır. (Çankaya, 2019). İnsan zekâsının taklit edilmesinden oluşan yapay zekâ birçok alanda insandan daha hızlı sonuç vererek insanı geçebilmekte veya insana yaklaşabilmektedir. Buna örnek olarak Google tarafından tanıtılan Google Duplex verilebilir. Google Duplex, randevu almak istenilen yer ve saat duplexe söylendiği takdirde insanmış gibi konuşarak randevu alabilmektedir (Çankaya, 2019). Hem kadın hem erkek sesini de bulunduran duplex günlük konuşma dilini aksanlarıyla birebir taklit edebilmektedir. Bu yüzden robot olduğu anlaşılması zordur. Bir başka öğrenebilen robot örneği ise 2018 yılında Çin’de tanıtılan, dünyada ilk olarak İngilizce konuşabilen robot haber spikeridir (Sucu ve Ataman, 2020). Geliştirilen başka robot örneğine bakacak olursak Hanson Robotics tarafından geliştirilen Sophia Resim 1’de verilmiştir. Sophia şaka yapabilme, gülme, üzülme gibi çeşitli mimikleri yapabilme yeteneğine sahiptir (Çankaya, 2019). Sophia robot ile ilgili bir diğer önemli bilgi ise Suudi Arabistan tarafından Sophia’ya vatandaşlık verilmiştir ve bu bir robota verilen ilk vatandaşlıktır (Çankaya, 2019).

Resim 1

Sophia yapılan bir konuşmada kendisine yönlendirilen“ İnsanları yok etmek istiyor musunuz?” sorusuna “Evet, insanları yok etmek istiyorum.” diyerek bir süre korkuya sebep olmuştur (Sucu ve Ataman, 2020).

Robotların tek amacı insanları taklit etmek değildir insanlara yardımcı olmak için belirli alanlarda kullanılmak üzere robotlar üretilir. Örneğin Sophia ilk etapta parktaki yaşlılara ve ziyaretçilere yardım etmek için üretilmişti. Robotların kullanım alanlarına bakıldığı zaman endüstri, uzay, askeri, tıp, arama kurtarma gibi birçok alanda robotların kullanıldığı görülmektedir (Gürgüze ve Türkoğlu, 2019). Yapay zekanın bir diğer kullanım alanı da partner robotlardır. Partner robotlar cinsiyete sahip olan yapay zeka türleridir (Topakkaya ve Eyimiş, 2019). Partner robotun amacı ise kendisini yalnız hisseden kişilerin yalnızlık problemini gidermektir ama bu durum çeşitli sorunlara yol açacağı açıktır. Her istediği partner robot tarafından yapılan kişi bu duruma alışarak insanlarla iletişim kurarken problem yaşayabilir.

Yapay zekâ uygulama ve kullanım alanları oldukça fazladır.  Yapay zeka salt olarak insan beyni taklidi olarak düşünülmemelidir. Protez uzuvlar, akıllı telefonlar, giyilebilir cihazlar, işitme cihazları, GPS, artırılmış gerçeklik gözlükleri; hastalıkları önleyip tedavi etme, nakliye ve lojistik işlemleri, rüzgâr enerjisiyle elektrik üretme gibi birçok alanda yapay zekâyı görmek mümkündür (Çankaya, 2019; Topakkaya ve Eyimiş, 2019).

Günlük hayatın bir parçası haline gelen yapay zekalar, çok miktarda veri toplamaktadır (Çankaya, 2019). Toplanan bu veriler excel, spss gibi yazılımlarla analiz edilememektedir. Bu bilgisayarda bulunan uygulamalarla analiz edilemeyen veriye Big Data ( Büyük Veri) denmektedir. (Çankaya, 2019). Büyük veri sayesinde öğrenebilen yapay zekâlar geliştirilirmiştir. Yapay zeka için büyük veri analizleri oldukça önemlidir. Bu bağlamda bakıldığında yapay zeka için kötü ya da iyi karar yoktur, deneyimler vardır (Çankaya, 2019).

Resim 2

Resim 2’de görüldüğü üzere bir dakikada kullanıcılar internet üzerinde çok fazla veri birikmektedir. Geçmiş vs silinse bile bunlar dijital ayak izi olduğu için internet üzerinden kaydedilmiş kişiye ait veriler bulut teknolojisinde saklanmaktadır. Yapay zeka aracılığıyla birçok teknoloji kişilerin izinli veya izinsiz verilerini toplamaktadır ve toplanan veriler ışığında karşınıza size uygun reklamlar çıkmaktadır (Çankaya, 2019). Firmalar kendilerini güvence altına almak için bilgilerinizin kullanılmasına izin verdiğinize dair imza, onay istemektedir. Onay verilmediği takdirde ise uygulamayı kullanmaya izin vermemektedir. Verilerin toplanması bir yana dursun asıl mesele bu verilerin hangi amaçla kullanılacağıdır.  Burada da etik sorunlar devreye girmektedir.

 

Otonom Araçlar

Otonom araçlar bağımsız karar verebilme, çevresel verileri analiz edebilme yeteneklerine sahip akıllı makinelerdir. Otonom araçların kendine ait bir özerkliği bulunmaktadır. Otonom araçlar sürücüsüz araç, robotik araç şeklinde de anılmaktadır (Yetim, 2016). Otonom araçlarda amaç sürüş sırasında insan tarafından gerçekleştirilen refleks, algılama yeteneklerinin teknoloji tabanlı yapılarak daha az riskle sürüş yapılması, araç sürüşlerinde insan faktörünün çıkarılmasıdır (Yetim, 2016).  

Gelişen teknolojiyle birlikte hukuk ve etik durumlar da değişmektedir. Sürücülü araçlarda kaza anında ilk başta sürücünün suçu olup olmadığına sonrasında hava şartlarına bakılırken sürücüsüz araçlarda suç araçta aranacaktır.  Bu da yeni hukuki kanunları beraberinde getirecektir. Ve öngörülen sorun tek bununla sınırlı kalmamaktadır. “Kişisel verilerin ne derecede korunacağı?”, “Verilerin hangi amaçlarla kullanılacağı?” otonom araçlar konusundaki etik sorunlardır.

Otonom araçların toplayacağı veriler: Seyahat eden kişinin nereye gittiği, kimleri ziyaret ettiği, hangi saatlerde seyahat ettiği, kimlerle seyahat ettiği,  ne tür alışkanlıkları olduğu, sosyal hayatı, lokasyon bilgisi gibi veriler toplanacaktır (Yetim, 2016).  

 

Yapay Zeka ve Etik Sorunları

Yapay zekaya baktığımız zaman insan eseri olarak değerlendirebilir. Her ne kadar belirli ölçüde özerkliğe sahip olsa da bilinçsizdir ve duygusu yoktur. Duygusu olmayan bir makine olaylara başka birinin perspektifinden bakamaz. Öznel bir duygu besleyemez. Ahlaki bir muhakeme yeteneğe sahip değildir. Örneğin kuyruğunu sallayan robot köpek, mutlu olduğu için değil o şekilde programlandığı için kuyruğunu sallamaktadır.

Bir eylemden sorumlu olunabilmesi için yapılan şeyin bilerek, isteyerek ve özgürce yapılması gerekmektedir.  Bu bağlamda değerlendirildiğinde yapay zekâ hiçbir zaman eylemlerinde tamamen özgür değildir ve bilince sahip değildir bu yüzden yaptıklarından sorumlu tutulmamaktadır.

Anayasada da yapay zekâya dair herhangi bir sorumluluk ve cezadan bahsedilmediğinden sorumlu üreticisi veya kullananı olarak görülebilir.  “Bu bağlamda Örneğin ameliyat sırasında robotun işlemesinin kesintiye uğraması elektrik kesintisi nedeniyle olmuşsa hastanenin kesintisiz güç kaynağına sahip olmaması nedeniyle ya da robotun düzenli olarak bakımının yapılmamış olması nedeniyle sorumluluğu olacaktır. Yine üreticinin eğer robottaki sorun bir üretim hatasından kaynaklanıyorsa sorumluluğu olacaktır. Aynı şekilde eğer sorun robottaki yazılım ile ilgiliyse burada yazılımı hazırlayanın da sorumluluğu gündeme gelecektir.” (Yüksel, 2016)

Dünyanın en büyük endüstriyel robot üreticisi ülkesi Japonya, 28 Temmuz 2017 yılında Yapay Zekâ Ar-ge Kılavuzları hazırlamıştır. Japonya strateji belgesi yapay zekâ ile ilgili temel felsefe ve ilkeleri belirlemiştir.

 

Temel Felsefeleri:

  • İnsan merkezli toplum,
  • Yönergeleri bağlayıcı olmayan esnek yasaları uluslararası paydaşlarla paylaşma,
  • Avantaj ve risklerin dengesini sağlama,
  • Teknolojileri engellemekten veya geliştiricilere aşırı yük uygulamaktan kaçınma,
  • Yönergeleri sürekli gözden geçirme ve gerektiğinde yenileme.

 

Dokuz İlke:

  • İş birliği,
  • Şeffaflık,
  • Kontrol edilebilirlik,
  • Emniyet,
  • Güvenlik,
  • Gizlilik,
  • Etik (insan onuruna ve bireysel özerkliğe saygı),
  • Kullanıcı yardımı,
  • Hesap verebilirlik ilkesi.   (Ulaşan, 2020)

 

 

Robot Etiği

Bir robot, insana zarar verirse bu durumdan sorumlu olur mu?  Robota şiddet uygulamak kabul edilebilir mi?  Robotlarla evlenmek mümkün müdür? Robotlar cansız teknolojik varlıklar olarak mı düşünülmelidir? Gibi etik sorunların varlığından söz edilebilir.

Robot etiği, robotların giderek otonom hale gelmesi ve kullanımının günden güne artmasıyla ortaya çıkabilecek olası etik sorunlarla ilgilenmektedir. Robotlara ne kadar özerklik verileceği, robotların davranışlarının nasıl yönetileceği bu etik sorunlar arasındadır.  1942 yılında Isaac Asimov hukuk kuralı niteliğinde olmamakla birlikte 3 Robotik Yasasını dile getirmiştir.

  1. Bir Robot, bir insana zarar veremez, ya da zarar görmesine seyirci kalamaz.
  2. Bir robot, birinci yasayla çelişmediği sürece bir insanın emirlerine uymak zorundadır.
  3. Bir robot, birinci ve ikinci yasayla çelişmediği sürece kendi varlığını korumakla yükümlüdür. (Erdoğan, 2017)

Asimov, daha sonra bu yasalara bir yasa daha getirme ihtiyacı duydu ve bunu sıfırıncı yasa olarak adlandırdı.

0. “ Bir robot, “insanlığa” zarar veremez ya da insanlığın zarar görmesine seyirci kalamaz.” (Erdoğan, 2017)

Güney Kore Robotlarla ilgili etik şartlar geliştirmiştir. Robotlar Etik Şartı’na göre, üreticiler ve tasarımcılar vasıtasıyla imalat kuralları robotların özerkliğini limitli tutmalı ve insanın robot üzerinde kontrol sahibi olması her zaman mümkün olmalıdır. (Ulaşan, 2020)

Otonom Araçlar ve Etik Sorunları

Otonom araçlarla birlikte meydana gelen kazaların %90 oranında azalacağı öne sürülmektedir (Özmen, 2019). %10 ihtimalle olası kazaların olabileceği göz ardı edilmemelidir. Örneğin 2016 yılında Teslanın otonom aracı açık havada beyaz kamyonu görmedi ve bu durum ölümlü bir kazaya neden oldu. Bir başka durum ise uber aracında meydana geldi. 2018 yılında meydana gelen uber kazası yaya bir kadının ölmesine yol açtı. Bu yüzden olası durumları daha önceden değerlendirmek büyük bir önem teşkil etmektedir. Örneğin otonom aracın frenleri tutmadığında ve önünde yayalar olduğunda araç, nasıl bir karar verecektir? Yoldan çıkarak arabanın içindeki yolcunun mu ölmesini göze alınacak yoksa önündeki yayaya mı zarar verecektir? Ahlak felsefesinin önde gelen trolley problemine benzer etik problemler otonom araçlarla birlikte yeniden karşımıza gelmektedir. Ahlak makinesi çeşitli problemlere karşı ne yapılacağı hakkında karar mekanizması geliştirmek için tasarlanmıştır. Araştırma, genel kaza durumlarında verilen cevaplara göre genel bir etik ve ahlak ilkesi benimsemek için hazırlanmıştır. Araştırmaya katılanlara 9 farklı kaza senaryosu verilerek verilen 2 kaza sonucundan birinin seçilmesi istenmiştir. Senaryolarda; evcil hayvanlarla insanlar, yayalarla aracın yolcuları, yaşlılarla gençler, trafik kurallarına uymayanlarla uyanlar, sağlıklı insanlarla engelliler, erkeklerle kadınlar, yüksek statüde olanlarla düşük statüde olanlar karşı karşıya getirilmiştir. (Canbay ve Demircioğlu, 2021)

Ahlak makinesine verilen cevaplar her ne kadar ülkeler bazında değişkenlik göstergese de genel bağlamda değerlendirildiğinde çok insan yerine az insanın, gencin yerine yaşlının, insanların yerine hayvanların öldüğü kaza sonuçları tercih edilmiştir. Faydacılık felsefesine göre; bir eylem, maksimum sayıda şahıs için maksimum faydayı sağlıyor veya minimum sayıda kişi için minimum düzeyde zarara sebebiyet veriyorsa etiktir (Aktaş, 2014). Bu bağlamda değerlendirildiğinde katılımcılardan gelen cevaplara göre otonom araçlarının karar mekanizmasında faydacılık etiğinin benimsenmesi gerektiğini söylemek mümkündür. Toplam zarar en aza indirilmelidir.

Sonuç

Sonuç olarak söylenebilir ki yapay zekâ tam anlamıyla bağımsızlığı olmadığı için şu anlık yaptığı eylemlerden sorumlu değildir. Yapay zekâdan meydana gelen bir durumda sorumlusunun kullananı ve üreteni olduğunu belirtmek mümkündür. Öte yandan eğer kontrolleri sağlanmışsa, yazılım bağlamında herhangi bir üretici hatası bulunmuyorsa, kullanan kişi tarafından da bir aykırılık yoksa herhangi birisi sorumlu olmayacaktır.

 

KAYNAKÇA

Aktaş, K. (2014). Etik-Ahlâk İlişkisi ve Etiğin Gelişim Süreci. Uluslararası Yönetim ve Sosyal Araştırmalar Dergisi, 1(2), 22-32.

Canbay, P.,  ve Demircioğlu, Z. (2021). Endüstri 5.0’a Doğru: Zeki Otonom Sistemlerde Etik ve Ahlaki Sorumluluklar. Bilişim Teknolojileri Online Dergisi, 12(45), 107-123.

Çankaya, S. “Bilişim Etiğinde Yeni Sınırlar”.  Bilişim Etiği ve Güvenliği, Odabaşı H. F, Leymun, O, Ş. ed.  (Ankara: Nobel, 2019).

Erdoğan,  M., (Eylül 2017). Sıfırıncı Yasa. Muhasebe Bilim Dünyası Dergisi, 19(3), 746-759.

Gürgüze, G., ve Türkoğlu, İ. (2019). Kullanım alanlarına göre robot sistemlerinin sınıflandırılması. Fırat Üniversitesi Müh. Bil. Dergisi, 31(1), 53-66.

Özmen,  M., C. Ethics of Artifical Intelligence: moral responsibility of self-driving cars and sex robots. Yüksek Lisans Tezi. Orta Doğu Teknik Üniversitesi, 2019.

Sucu, İ., ve Ataman, E. (2020, Ocak). Dijital evrenin yeni dünyası olarak yapay zeka her filmi üzerine bir çalışma. Yeni Medya Elektronik Dergi, 4(1), 40-52.

Topakkaya, A., ve Eyibaş, Y. (2019). Yapay zeka ve etik ilişkisi. Felsefe Dünyası Dergisi, 70, 81-99.

Ulaşan, F. (2020, Mayıs). Ulusal Yapay Zekâ Strateji Belgeleri ve Değerlendirmeler. ULİSA12, 2.

Yetim, S. (2016, Ocak). Sürücüsüz araçlar ve getirdiği/ getireceği hukuki sorunlar. Ankara Barosu Dergisi, 1, 127-184.

Yüksel, A., E., B. (2017, Ocak). Robot Hukuku. Türkiye Adalet Akademisi Dergisi, 7(29).

 

Bu makale smallseotools sitesi üzerinden 12.06.2021 tarihinde kontrol edilmiştir.

Makale, benzerlik değeri ile kabul edilmiştir. Results Completed: 100%  Plagiarism: %15 Unique: %85


Bu eser Creative Commons Atıf-AynıLisanslaPaylaş 4.0 Uluslararası Lisansı ile lisanslanmıştır