T.C. MARMARA ÜNİVERSİTESİ
ATATÜRK EĞİTİM FAKÜLTESİ
BİLGİSAYAR VE ÖĞRETİM TEKNOLOJİLERİ EĞİTİMİ BÖLÜMÜ
2025-2026 EĞİTİM ÖĞRETİM YILI BAHAR DÖNEMİ
BİLİŞİM ETİĞİ DERSİ
MAKALE İNCELEME RAPORU
Hazırlayan: BÜNYAMİN EROL TÜRKKAN 100222506
İçindekiler
- MAKALENİN ADI
- YAZAR(LAR)
- YIL / SAYI
- MAKALE ERİŞİM ADRESİ
- MAKALE KÜNYESİ (APA STANDARDI)
- MAKALE ÖZETİ
- GİRİŞ
- ARAŞTIRMANIN AMACI
- YÖNTEM
- BULGULAR
- TARTIŞMA VE SONUÇ
- SONUÇ VE ÖNERİLER (Makalenin Önerileri)
- MAKALE İNCELEME SONUÇLARI VE ÖNERİLER (Kişisel Görüş)
1. MAKALENİN ADI
Yapay Zekâ Etiği: Toplum Üzerine Etkisi
2. YAZAR(LAR)
Tülay TURAN, Gökhan TURAN, Ecir KÜÇÜKSİLLE
3. YIL / SAYI
2022 / Cilt: 13, Sayı: 2 (Sayfa: 292-299)
4. MAKALE ERİŞİM ADRESİ
https://dergipark.org.tr/tr/pub/makufebed/article/1058538
5. MAKALE KÜNYESİ (APA STANDARDI)
Turan, T., Turan, G., & Küçüksille, E. (2022). Yapay Zekâ Etiği: Toplum Üzerine Etkisi. Mehmet Akif Ersoy Üniversitesi Fen Bilimleri Enstitüsü Dergisi, 13(2), 292-299. https://doi.org/10.29048/makufebed.1058538
6. MAKALE ÖZETİ
İncelenen çalışma, yapay zekâ (YZ) sistemlerini; günümüzde toplumun temel rollerine hizmet eden, insanlığa çeşitli uygulama alanlarında fayda sağlayan ve gelecek yıllarda insan müdahalesine hiçbir şekilde ihtiyaç duymadan, tamamen özerk kararlar alabilme potansiyeline sahip sistemler olarak tanımlamaktadır.1 Yapay zekâlı sistemlerin dışarıdan daha az insan denetimi ile kendi başlarına otonom çalışabilmesi için öncelikle sarsılmaz etik yapıların oluşturulması zorunludur. Çalışmada “Etik Yapay Zekâ”, bireysel haklar, mahremiyetin korunması, toplumda eşitliğin sağlanması ve karar mekanizmalarında ön yargı yapılmaması gibi temel insani değerlere dayanan yönergelere sıkı sıkıya bağlı kalan yapay zekâ olarak ifade edilmektedir.1 Bu normlara uyulmasının kuruluşların daha verimli çalışmasına, çevresel tahribatın azaltılmasına ve kamu güvenliğinin artırılmasına yardımcı olacağı; aksi durumda ise etik olmayan kontrolsüz uygulamaların toplum için yıkıcı ve zararlı etkilere neden olabileceği vurgulanmaktadır.1 Makalede, bu zararlı etkileri yönetmek için etik sistemlerin evrensel bir standart olarak geliştirilmesi gerekliliği iş gücü piyasası, eşitsizlik, gizlilik ve ön yargı temaları etrafında tartışılmaktadır.1
7. GİRİŞ
Yapay zekâ kavramı, sadece günümüzün değil insanlık tarihinin en dönüştürücü teknolojik sıçramalarından birini temsil etmektedir. Makalenin giriş bölümünde de belirtildiği üzere, yapay zekânın teorik temelleri Alan Turing’in 1950 yılında kaleme aldığı ve makinelerin düşünme kapasitesini sorguladığı ufuk açıcı çalışmalarına kadar dayanmaktadır.1 Günümüzde bu tarihsel vizyon; insan sinir sisteminden ilham alan hesaplamalı teknolojilerle birleşerek otonom sürücüsüz araçlardan, hastalıklara teşhis koyan devasa tıbbi yazılımlara kadar hayatın her alanına entegre olmuştur.1
Ancak teknolojinin bu baş döndürücü gelişimi, “makinelerin insana zarar vermeden nasıl otonom kalabileceği” sorusunu merkeze almıştır. Tarihsel olarak Isaac Asimov’un 1942 yılında ortaya koyduğu “Robotik’in Üç Kanunu” gibi edebi/felsefi adımlarla başlayan etik arayışı, günümüzde devasa veri setleriyle çalışan sistemler için yetersiz kalmıştır.1 Bu yetersizlik, modern toplumda bireysel hakların ve güvenliğin korunabilmesi için 2019 tarihli Montreal Bildirgesi gibi (İyilik hali, otonomiye saygı, mahremiyet, dayanışma, demokratik katılım, eşitlik, kapsayıcılık, ihtiyatlılık, sorumluluk ve sürdürülebilirlik ilkelerini içeren) daha kapsamlı küresel etik manifestoların doğmasına yol açmıştır.1 İncelenen bu çalışma, söz konusu teorik felsefi temelleri alarak; teknolojik gelişmelerin laboratuvar ortamından çıkıp toplumsal yaşamın merkezine yerleştiğinde yaratacağı sosyolojik, ekonomik ve politik sarsıntıları incelemek üzere kaleme alınmıştır.
8. ARAŞTIRMANIN AMACI
Bu araştırmanın temel amacı; yapay zekâ teknolojilerinin gelişim sürecinde salt mühendislik ve kodlama başarılarına odaklanmanın ötesine geçerek, bu sistemlerin dışarıdan hiçbir insan müdahalesi olmadan özerk kararlar alma seviyesine ulaşmasının toplum üzerindeki “makro-etik” yansımalarını incelemektir.1 Çalışma, etik yönergelerden yoksun bir biçimde piyasaya sürülen yapay zekâ uygulamalarının iş gücü, insan hakları ve mahremiyet bağlamında oluşturabileceği riskleri ortaya koymayı ve bu risklerin minimize edilmesi için felsefi, hukuki ve sosyal bir çerçeve sunmayı hedeflemektedir.1
9. YÖNTEM
9.1. Araştırma Modeli
Bu çalışma, ampirik bir saha araştırması (anket veya deney) değil, nitel araştırma yöntemleri çerçevesinde desenlenmiş bir “Literatür Taraması ve Kavramsal Derleme” (Conceptual Review) çalışmasıdır. Araştırma modeli, yapay zekâ etiği konusunda daha önce ulusal ve uluslararası literatürde yayımlanmış akademik bulguların, felsefi bildirgelerin ve sosyo-ekonomik projeksiyonların sistematik bir biçimde bir araya getirilerek eleştirel bir süzgeçten geçirilmesine dayanmaktadır.
9.2. Evren ve Örneklem / Çalışma Grubu (Veri Kaynakları)
Derleme türündeki bu çalışmanın evrenini, küresel çapta yapay zekânın gelişimi, felsefesi ve toplumsal etkileri üzerine üretilmiş tüm bilimsel makaleler, raporlar ve etik beyannameler oluşturmaktadır. Çalışmanın örneklemi (veri kaynakları) ise araştırmacılar tarafından amaca yönelik olarak (purposive sampling mantığıyla) seçilmiş kritik dönüm noktası niteliğindeki eserlerdir. Örneğin; Alan Turing’in 1950 tarihli makalesi, Isaac Asimov’un 1942 tarihli eserleri, Frey ve Osborne’un (2017) iş gücü ve otomasyon üzerine yaptıkları çığır açıcı analizler ile yapay zekânın sorumlu gelişimini hedefleyen 2019 tarihli Montreal Bildirgesi bu araştırmanın temel çalışma grubunu (veri kaynaklarını) teşkil etmektedir.1
9.3. Veri Toplama Araçları / Veriler ve Toplanması
Çalışmada veri toplama aracı olarak “İkincil Veri (Secondary Data) Analizi” yöntemi kullanılmıştır. Veriler, ulusal ve uluslararası akademik veri tabanlarında (Google Scholar, DergiPark, Scopus vb.) yer alan hakemli makalelerin, uluslararası komisyonlar tarafından yayımlanan etik bildirgelerin ve teknoloji sosyolojisi alanındaki otorite kabul edilen kitapların taranması süreciyle toplanmıştır. Elde edilen veriler, tarihsel ve tematik bir sıraya konularak analiz edilmek üzere bir araya getirilmiştir.
9.4. Verilerin Analizi
Toplanan ikincil veriler “Tematik Analiz” (Thematic Analysis) yöntemiyle çözümlenmiştir. Araştırmacılar, yapay zekânın toplumsal etkilerini birbirinden bağımsız yığınlar halinde sunmak yerine, literatürdeki verileri dört ana tema altında kategorize ederek kodlamışlardır. Bu bağlamda analiz süreci; verilerin “İş Gücü Piyasası”, “Eşitsizlik”, “Gizlilik” ve “Ön Yargı” başlıkları altındaki örüntülerinin tespit edilmesi ve bu kavramların birbirleriyle olan nedensellik ilişkilerinin sosyolojik bir perspektifle yorumlanması şeklinde yürütülmüştür.1
10. BULGULAR
Araştırmanın verilerinin tematik analizi sonucunda, yapay zekânın toplum üzerindeki etkilerine dair aşağıdaki kritik bulgulara ulaşılmıştır:1
10.1. İş Gücü Piyasası Üzerindeki Etkiler (Bulgusu)
Makalede elde edilen en çarpıcı bulgulardan biri, yapay zekânın iş gücü piyasasında yaratacağı otomasyon dalgasının tarihsel emsallerinden çok daha yıkıcı olacağıdır. Sanayi devrimi fiziksel emeği (mavi yaka) hedeflerken, mevcut teknolojik atılım doğrudan bilişsel emeği (beyaz yaka) hedeflemektedir. Literatürde Frey ve Osborne’un (2017) verilerine dayandırılarak sunulan bulguya göre; önümüzdeki 20 yıllık süreç içerisinde yapay zekâ sistemleri devasa bir kitlesel işsizlik dalgası yaratma potansiyeline sahiptir.1 Özellikle analitik düşünceye ve veriye dayalı orta sınıf mesleklerin algoritmalar tarafından devralınması, gençler ve eğitim seviyesi nispeten düşük bireyler arasındaki sosyal uçurumu hızla büyütecektir.1
10.2. Ekonomik Eşitsizlik ve Sosyal Uçurum (Bulgusu)
İkinci tema altında ulaşılan bulgu, yapay zekâ odaklı otomasyonun küresel üretkenliği artırmasına rağmen servet dağılımını bozduğudur. Elde edilen verilere göre, teknolojik altyapıyı ve devasa verileri elinde tutan çok uluslu teknoloji şirketleri, üretilen zenginliği kendi bünyelerinde toplayarak küresel bir ekonomik hegemonya kurmaktadır. Bu durum, teknolojinin zenginliği tabana yaymak yerine, gelirin az sayıda kişinin elinde toplanmasına neden olarak sosyo-ekonomik eşitsizliği ve kapitalist krizleri daha da derinleştirdiğini göstermektedir.1
10.3. Gizlilik, Mahremiyet ve Gözetim (Bulgusu)
Bulgular, veri gizliliğinin salt bir siber güvenlik (parola çalınması vb.) meselesi olmaktan çıkıp temel bir insan hakları ihlaline dönüştüğünü ortaya koymaktadır. Yapay zekâ sistemlerinin eğitilebilmesi için milyarlarca insanın günlük yaşamına ait verinin anlık olarak hasat edilmesi, sistemik bir “gözetim” tehlikesi yaratmaktadır. Bireylerin özel verilerinin siber saldırılara karşı korunamaması veya şirketler tarafından kötüye kullanılması, mahremiyetin ortadan kalkmasına ve kitlelerin algoritmik olarak yönlendirildiği distopik bir panoptikon yapısının oluşmasına neden olmaktadır.1
10.4. Algoritmik Ön Yargı ve Tarafgirlik (Bulgusu)
Araştırmanın dördüncü bulgusu, “makinelerin tarafsız olduğu” mitini çürütmektedir. Makine öğrenimi algoritmaları, geçmişte insanlar tarafından üretilmiş verilerle eğitildiği için; toplumdaki ırkçılık, cinsiyetçilik veya sınıfsal ayrımcılık gibi tarihsel ön yargıları kolayca miras almaktadır.1 İnsan doğasındaki kusurları taşıyan kirli verilerle eğitilen sistemler, karar alma süreçlerinde (işe alım, banka kredisi onayı, adli yargılama vb.) azınlıklara ve dezavantajlı gruplara yönelik ayrımcılığı matematiksel bir “nesnellik” maskesi altında yeniden üreterek kurumsallaştırmaktadır.1
11. TARTIŞMA VE SONUÇ
Makalede elde edilen bulgular tartışıldığında, yapay zekâ teknolojilerinin tek başına “iyi” veya “kötü” olmadığı; ancak etik yönergeler olmadan tamamen kâr ve verimlilik odaklı serbest piyasa koşullarına bırakıldığında ciddi bir yıkım silahına dönüşeceği sonucuna varılmıştır. Yazarlar, otomasyonun yol açacağı işsizliğin ve ekonomik eşitsizliğin salt teknolojik bir yan etki olmadığını, küresel güç dengelerini sarsacak bir kriz sarmalı olduğunu tartışmaktadır. Aynı şekilde veri mahremiyetinin ihlali ile algoritmik ön yargıların, özellikle dezavantajlı sosyo-ekonomik grupları sistemin tamamen dışına iterek demokratik katılımı yok edeceği tespit edilmiştir. Sonuç olarak, yapay zekânın potansiyelinden toplum yararına faydalanabilmek için “Etik Yapay Zekâ” kavramının bir tercih değil, varoluşsal bir zorunluluk olduğu vurgulanmaktadır. Teknolojik gelişim ile insan hakları evrensel beyannamesinin ruhu, birbirinden bağımsız düşünülemez.
12. SONUÇ VE ÖNERİLER (Makalenin Önerileri)
Makalede tespit edilen sorunların ve olumsuz etkilerin sorumlu bir şekilde yönetilebilmesi için yazar ekibi tarafından şu çözüm önerileri sunulmuştur:1
- Ekonomik ve Sosyal Politikalar: Hükümetler, teknolojik değişimler nedeniyle işini kaybeden veya kaybedecek olan bireyleri korumak adına acil ekonomik politikalar ve bu iş gücünü yeni çağa entegre edecek yeniden eğitim (reskilling) programları hayata geçirmelidir.1
- Veri Bütünlüğü (Data Integrity) ve Ön Yargının Engellenmesi: Geliştiriciler ve veri bilimciler, yapay zekâ sistemlerini eğitirken ayrımcılığı ve adaletsizliği minimize etmek için demografik olarak adil, kapsayıcı ve “temiz” (clean) veri setleri kullanmak zorundadır.1
- Kapsayıcı Tasarım (Inclusive Design): Hükümetler ve teknoloji sektörü, yapay zekâ ekosistemini sadece ticari kâr getirecek alanlara değil; sosyal eşitsizliği azaltmak amacıyla doğrudan düşük gelirli nüfusun ihtiyaçlarını karşılayacak şekilde yönlendirmeli ve desteklemelidir.1
- Kullanıcı Hakları ve Şeffaflık: Bireyler, kendi kişisel verilerinin hangi sistemlerde ve nasıl kullanıldığı konusunda tamamen aydınlatılmalı; diledikleri an sistemdeki verilerini “sildirme hakkına” yasal olarak sahip olmalıdır.1
13. MAKALE İNCELEME SONUÇLARI VE ÖNERİLER (Kişisel Görüş)
Makaleyi Seçme Nedenim:
Bilişim etiğini mikroskobik ölçekteki kurumsal olaylardan (örneğin çalışanların internet kullanım politikaları) veya bireysel ihlallerden ayırarak; makroskobik ölçekteki devasa toplumsal etkilere (gelir adaletsizliği, sivil haklar, demokratik süreçler ve panoptik gözetim toplumu) odaklanması sebebiyle bu makaleyi incelemek için tercih ettim. Yapay zekânın belirli koşullar altında insan müdahalesine ihtiyaç duymadan özerk kararlar alabilen yapılar düzeyine erişmesinin sadece bir kodlama başarısı değil, toplumun güç dinamiklerini değiştiren bir yapısal tehdit olduğunu savunması, çalışmayı benim gözümde değerli bir sosyo-teknik okuma haline getirmiştir.
İnceleme Sonuçları ve Değerlendirmelerim:
Bu makale, bilişim etiği dersi kapsamında kazandığımız “teknolojinin tarafsız olduğu” mitini yıkma becerisini mükemmel bir şekilde desteklemektedir. Bir algoritmanın yapısının, onu kodlayan mühendisin dünya görüşünden, eğitim verisini toplayan kurumun tarihsel ön yargılarından bağımsız olamayacağını net bir şekilde idrak ettim. Çalışma; küresel teknoloji şirketlerinin ve veri tröstlerinin elinde toplanan muazzam bilgi işlem gücünün, demokratik devlet mekanizmalarını tehdit edebilecek bir siber otoriterliğe dönüşme riskini büyük bir açıklıkla kanıtlamaktadır.
Vurgulanması gereken en kritik eksiklik, makalede önerilen çözümlerin (örneğin temiz veri kullanımı veya kullanıcı hakları) uygulanabilirliği için uluslararası bir yaptırım gücünden yeterince bahsedilmemiş olmasıdır. Şirketlerin kendi kendilerini etik komitelerle denetlediği (ethics washing) bir düzenin çökmeye mahkûm olduğu aşikârdır.
İleriye Dönük Önerilerim:
Geleceğin mühendisleri, bilişim uzmanları ve veri bilimcileri olarak bizler; teknolojinin sadece “nasıl çalışması gerektiği” ile değil, “kimin için ve hangi amaçla çalışması gerektiği” ile de ilgilenmek zorundayız. Demokratik sivil hakların korunduğu ve teknolojik verimliliğin insanlığın refahına hizmet ettiği bir gelecek inşa etmek için yapılması gerekenler şunlardır:
- Uluslararası kamu kurumlarının, filozofların ve veri bilimcilerin eşgüdümlü çalıştığı, algoritmaları piyasaya sürülmeden önce test edecek bağımsız “Algoritmik Denetim Komisyonları” kurulmalıdır.
- Yazılım ve bilişim teknolojileri fakültelerinin müfredatlarında “Bilişim Etiği” sadece teorik bir seçmeli ders olmaktan çıkarılmalı, kodlama mimarisinin temel bir mühendislik metriği haline getirilmelidir.
- Devletler, dijital uçurumu engellemek adına vatandaşlarına şartsız bir “veri egemenliği” hakkı tanıyarak verinin bir sömürü aracı olmasının önüne geçmelidir.
Eğer yapay zekâyı etik yönergelerle ve şeffaflıkla inşa edemezsek, kendi ellerimizle yarattığımız bu sistemlerin pasif ve yönlendirilebilir özneleri haline gelmemiz kaçınılmaz olacaktır.
Alıntılanan çalışmalar
- Mehmet Akif Ersoy Üniversitesi Fen Bilimleri Enstitüsü Dergisi …, erişim tarihi Mart 11, 2026, https://dergipark.org.tr/tr/pub/makufebed/article/1058538
Hazırlayan: BÜNYAMİN EROL TÜRKKAN 100222506
——————-

Bu inceleme Creative Commons Atıf-AynıLisanslaPaylaş 4.0 Uluslararası Lisansı ile lisanslanmıştır. Makale lisansı hakkında ilgili yazar ya da yayıncıdan bilgi alınız.
Marmara Üniversitesi’nde Bilgisayar ve Öğretim Teknolojileri Eğitimi 3. sınıf öğrencisi olarak, özellikle modern web ve mobil teknolojileri üzerine yoğunlaşan bir yazılım geliştiriciliğine odaklanıyorum. PHP, MySQL ve JavaScript (React, Vue) ekosistemlerinde yetkinlik kazanırken, Flutter ile mobil uygulama geliştirme süreçlerini aktif olarak yürütüyor; GDG on Campus Marmara’daki Teknik Ekip Liderliği görevim ve kurumsal düzeydeki staj tecrübelerimle teknik altyapımı sürekli güçlendiriyorum. Yazılım mimarisi, veritabanı yönetimi ve kullanıcı deneyimi odaklı çözümler üretmeyi merkeze alarak, sektörel standartlarda projeler geliştirmeye ve güncel teknoloji yığınlarını profesyonel süreçlere entegre etmeye devam ediyorum.


