Üretken Yapay Zekâ Sistemlerinde Halüsinasyon Problemi
Özet
Üretken yapay zekâ (ÜYZ) araçları, yükseköğretim ve mesleki uygulamalarda hızla yaygınlaşıyor. Bu yaygınlaşma, “halüsinasyon” olgusunu acil bir bilişim etiği sorunu hâline getirdi. Halüsinasyon, modelin gerçek olmayan fakat ikna edici çıktılar üretmesidir. Bu çalışma, önce halüsinasyonun tanımını ve teknik nedenlerini özetler. Ardından Mata v. Avianca (2023), Moffatt v. Air Canada (2024) ve akademik atıf uydurma vakaları analiz edilir. Sonrasında bilişim etiği çerçevesinde geliştirici–kullanıcı sorumluluk paylaşımı tartışılır. Son olarak geri-getirme destekli üretim (RAG), prompt mühendisliği ve çok kaynaklı doğrulama gibi çözüm yolları derlenir. Makale, BÖTE öğrencileri için bir “Yapay Zekâ Bilgi Doğrulama Kontrol Listesi” ile sonlanır.
Anahtar Kelimeler: Üretken yapay zekâ, halüsinasyon, bilişim etiği, bilgi doğrulama, RAG, prompt mühendisliği, yapay zekâ okuryazarlığı.
İçindekiler
- Özet
- 1. Giriş
- 2. Yapay Zekâ Halüsinasyonu Kavramı
- 3. Halüsinasyonun Teknik Nedenleri
- 4. Gerçek Vaka Analizleri
- 5. Bilişim Etiği Boyutu
- 6. Çözüm Önerileri ve Yöntemler
- 7.Uygulama
- 8. Sonuç
- Kaynakça
1. Giriş
1.1. ÜYZ’nin Hızlı Yaygınlaşması
Kasım 2022’de ChatGPT halka açık olarak yayımlandı. Bu olay, üretken yapay zekâ araçlarının akademik, hukuki, sağlık ve eğitim alanlarındaki kullanımını dönüştürdü. Nitekim Digital Education Council’in (2024) 16 ülkede 3.839 öğrenciyle yaptığı araştırma çarpıcı bir tablo ortaya koydu. Buna göre yükseköğretim öğrencilerinin yaklaşık %86’sı ÜYZ araçlarını çalışmalarına dahil ediyor. Aynı şekilde Türkiye’de de Yükseköğretim Kurulu bu dönüşüme yanıt verdi. Bu kapsamda Mayıs 2024’te “Yükseköğretim Kurumları Bilimsel Araştırma ve Yayın Faaliyetlerinde Üretken Yapay Zekâ Kullanımına Dair Etik Rehber” yayımlandı. Rehberde özellikle şeffaflık, dürüstlük, hesap verebilirlik ve halüsinasyon riski vurgulanmıştır (YÖK, 2024).
Ne var ki bu araçlar bir paradoks barındırır. Çıktılar sözdizimsel olarak ikna edici görünür, fakat olgusal olarak hatalı olabilir. Örneğin Bender ve diğerleri (2021), bu sistemleri “stokastik papağan” metaforuyla tanımladı. Yazarlara göre model, anlam değil olasılık temelinde çalışır.
1.2. BÖTE Öğrencisinin İki Katmanlı Sorumluluğu
Bu durum, BÖTE öğrencileri için iki katmanlı bir mesleki sorumluluk doğurur. Birincisi, geleceğin öğretmenleri olarak öğrenciler, bu araçları derslerinde nasıl kullanacaklarına dair etik bir çerçeve geliştirmek zorundadır. İkincisi, kendi akademik çalışmalarında halüsinasyonu fark edip doğrulayabilecek “yapay zekâ okuryazarlığı” yetkinliğine sahip olmaları gerekir (Miao & Cukurova, 2024).
Bu makalenin amacı şudur: halüsinasyon olgusunu kavramsal, teknik, hukuki ve etik boyutlarıyla ele almak. İlk olarak halüsinasyon kavramı ve türleri açıklanır. Sonrasında teknik nedenler ele alınır. Daha sonra dünyadan gerçek vakalar analiz edilir. Ardından bilişim etiği boyutu tartışılır. Son olarak çözüm önerileri sunulur ve BÖTE öğrencisi için bir kontrol listesi geliştirilir.
2. Yapay Zekâ Halüsinasyonu Kavramı
2.1. Tanım
Öncelikle alanın temel referansına bakalım. Bu çerçeve Ji ve diğerleri (2023) tarafından geliştirildi. Bu tanıma göre halüsinasyon, “kaynak içeriğe sadık olmayan ya da kaynaktan doğrulanamayan, ancak akıcı biçimde üretilmiş çıktı”dır. Huang ve diğerleri (2025) ise bu tanımı LLM çağına uyarladı. Yazarlara göre halüsinasyon, “akıcı ve otorite havası taşıyan, fakat olgusal olarak yanlış, uydurma veya kanıta dayanmayan içerik”tir.
2.2. Halüsinasyon Türleri
Literatürde iki temel sınıflandırma çerçevesi öne çıkar. İlk olarak, Ji ve diğerleri (2023) içsel ve dışsal halüsinasyon ayrımını önerdi. İçsel halüsinasyon, modelin kullanıcının sağladığı bağlamla doğrudan çelişen çıktı üretmesidir. Örneğin kullanıcı bir belgeyi özetletir. Belgede “FDA Ebola aşısını 2019’da onayladı” ifadesi geçer. Model ise bunu “FDA Ebola aşısını reddetti” şeklinde özetlerse içsel halüsinasyon ortaya çıkar. Dışsal halüsinasyon ise farklıdır. Bu türde model, kaynak metinde veya bilgi tabanında doğrulanamayan yeni bir bilgi “uydurur”. Akademik bağlamda en sık karşılaşılan tür ise var olmayan kaynak atıflarıdır.
İkinci olarak, Huang ve diğerleri (2025) olgusallık ve sadakat halüsinasyonu ayrımını ortaya koydu. Olgusallık halüsinasyonu, gerçek dünya bilgisiyle çelişen çıktıdır. Örneğin yanlış tarih veya hayalî bir kişiye atfedilen söz bu kategoriye girer. Sadakat halüsinasyonu ise sağlanan girdiye veya talimata uymayan çıktıdır. Öte yandan Hicks ve diğerleri (2024) bu olguyu felsefi açıdan değerlendirdi. Yazarlara göre halüsinasyon “yalan” ya da “hata” değildir. Aksine doğruluğa karşı kayıtsızlık anlamında felsefi “bullshit” (palavra) kategorisine girer. Çünkü model, ürettiği şeyin doğru olup olmadığını umursamaz. Zaten bir doğruluk kavramına sahip değildir.
3. Halüsinasyonun Teknik Nedenleri
3.1. Olasılıksal Üretim ve Bir Sonraki Kelime Tahmini
Büyük dil modelleri istatistiksel olarak çalışır. Yani eğitim verisindeki örüntülere dayanarak en olası bir sonraki “token”ı tahmin eder (Bender vd., 2021). Örneğin kullanıcı bir hukuk davası alıntısı istesin. Model, eğitim verisinde gördüğü hukuki atıf kalıbına uygun, gerçekçi görünen bir dizi üretir. Ancak bu dizi LexisNexis veya Westlaw veri tabanlarına bağlı değildir (Walters & Wilder, 2023). Sonuç olarak model, atıfın gerçek olup olmadığını değil, atıfın “gerçeğe benzeyip benzemediğini” optimize eder.
3.2. Parametrik Bellek ve Bilgi Kesim Tarihi
Modeller eğitim verilerini parametrelerinde “parametrik bellek” olarak saklar. Bilgi kesim tarihinden sonraki olaylar hakkında çıktı istendiğinde sorun başlar. Çünkü model bilgi eksikliğini fark etmek yerine olası bir cevap üretir (Huang vd., 2025). Dolayısıyla güncel olaylar, yeni yayınlanmış makaleler veya değişen mevzuat hakkında soru sorulduğunda halüsinasyon riski önemli ölçüde artar.
3.3. Eğitim Verisindeki Kusurlar
Eğitim verisi, internetten taranan metinler içerir. Ayrıca bu metinlerin doğruluğu garanti edilmez. Bender ve diğerleri (2021), bu durumun “denetlenemez büyüklük” sorununa yol açtığını belirtti. Böylece önyargı, yanlış bilgi ve çelişkili içerikler doğrudan modele aktarılır.
3.4. Dikkat Mekanizması Sınırlılıkları
Transformer mimarisi uzun bağlamlarda “kayan” bir dikkat sergiler. Başka bir deyişle model, uzun belgelerin orta kısımlarındaki bilgileri “unutma” eğilimindedir. Sonuç olarak bu durum hem içsel hem de dışsal halüsinasyon riskini artırır (Huang vd., 2025).
3.5. RLHF’in Sınırları ve “İtaatkâr” Model
İnsan Geribildiriminden Pekiştirmeli Öğrenme (RLHF), modeli ikna edici ve yardımsever kılar. Ancak burada bir yan etki vardır. Model, emin olmadığı durumlarda da “yardımsever” davranmaya, yani uydurma yapmaya yatkın hâle gelir. Ji ve diğerleri (2023) bu olguya “sycophancy” (yağcılık) adını verdi. Buna göre model, kullanıcının duymak istediğini söyleme eğilimindedir.
3.6. Kaçınılmazlık Tezi
Xu, Jain ve Kankanhalli (2024) önemli bir bulgu sundu. Yazarlar, öğrenme kuramı ve hesaplanabilirlik teorisi araçlarını kullandı. Sonuçta halüsinasyonun mevcut LLM mimarisinde tamamen elimine edilemeyeceğini biçimsel olarak kanıtladılar. Yazarlara göre halüsinasyon, “bir mühendislik kusuru değil, hesaplanabilir dil modellerinin doğuştan gelen yapısal bir sınırlılığıdır”. Bu nedenle etik tartışmalar özellikle “azaltma” ve “yönetme” üzerine yoğunlaşmalıdır.
4. Gerçek Vaka Analizleri
4.1. Mata v. Avianca (ABD, 2023)
4.1.1. Davanın Arka Planı
Roberto Mata, bir hava yolculuğunda yaralandı. Dizine bir servis arabası çarpmıştı. Bu nedenle Avianca Havayolları aleyhine New York Güney Bölge Mahkemesi’nde dava açtı. Davacının avukatları Steven A. Schwartz ve Peter LoDuca, karşı dilekçe hazırladı. Bu süreçte ChatGPT’yi hukuki araştırma aracı olarak kullandılar. Ne var ki sonuç, profesyonel yapay zekâ tarihinin dönüm noktalarından biri oldu (Mata v. Avianca, Inc., 2023).
4.1.2. Uydurma Davalar Olayı
Schwartz, ChatGPT’den Montreal Konvansiyonu ve iflas erteleme konularını destekleyen davalar istedi. Buna karşılık chatbot “Varghese v. China Southern Airlines”, “Martinez v. Delta Airlines”, “Shaboon v. EgyptAir”, “Petersen v. Iran Air”, “Miller v. United Airlines” ve “Estate of Durden v. KLM” gibi davaları üretti. Üstelik bu davaların hiçbiri gerçek değildi. Buna ek olarak sahte yargıç isimleri, sahte alıntılar ve sahte iç atıflar da eklendi. Daha da kötüsü, avukat ChatGPT’ye davaların gerçek olup olmadığını sordu. Sistem ise davaların “gerçek olduğunu” ve “Westlaw ile LexisNexis’te bulunabileceğini” iddia etti (Mata v. Avianca, Inc., 2023).
4.1.3. Karar ve Etik Çıkarım
Yargıç P. Kevin Castel, 22 Haziran 2023 tarihinde kararını verdi. Her iki avukata ve hukuk firmasına 5.000’er dolar para cezası kesildi. Ayrıca mahkeme “öznel kötü niyet” tespiti yaptı (Mata v. Avianca, Inc., 2023). Kararın esas önemi ise şudur: mahkemeye göre yapay zekâyı kullanmak başlı başına kötü niyet değildir. Ancak avukatın çıktıyı doğrulama yükümlülüğü vardır. Bu kararın ardından Amerikan Barolar Birliği harekete geçti. Nitekim Temmuz 2024’te üretken yapay zekânın hukuki kullanımına ilişkin ilk resmi etik görüşünü yayımladı (American Bar Association, 2024).
4.2. Moffatt v. Air Canada (Kanada, 2024)
4.2.1. Davanın Arka Planı
Jake Moffatt, büyükannesinin vefatı üzerine Vancouver–Toronto uçuşu rezerve etti. Bu süreçte Air Canada’nın resmi web sitesindeki chatbot ile etkileşime girdi. Bu süreçte chatbot şöyle dedi: ölüm üzerine indirimli yas tarifesi, uçuş sonrasında 90 gün içinde başvurularak alınabilir. Oysa Air Canada’nın gerçek politikası farklıydı. Şirket retroaktif başvurulara izin vermiyordu (Moffatt v. Air Canada, 2024).
4.2.2. Karar ve Küresel Etkileri
British Columbia Civil Resolution Tribunal (CRT) üyesi Christopher C. Rivers, 14 Şubat 2024 tarihli kararında üç önemli tespit yaptı. Birincisi, Air Canada’nın chatbot’un sağladığı bilginin doğruluğunu sağlama özen yükümlülüğü vardır. İkincisi, chatbot’un “ayrı bir tüzel kişi” olduğu savunması “dikkate değer biçimde tutarsız”dır. Üçüncüsü, tüketicinin web sitesinin bir bölümündeki bilgiyi başka bir bölümle çapraz kontrol etme yükümlülüğü yoktur. Sonuç olarak mahkeme 650,88 CAD tazminat ödenmesine karar verdi (Moffatt v. Air Canada, 2024). Bu karar küresel bir referans hâline geldi. Çünkü halüsinasyon riskinin yalnızca son kullanıcıyı değil, AI sistemini dağıtan kurumu da hukuken sorumlu kıldığını netleştirdi.
4.3. Akademik Vakalar: Uydurma DOI ve Atıflar
4.3.1. Walters ve Wilder Çalışması
Walters ve Wilder (2023) önemli bir çalışma yayımladı. Yazarlar Scientific Reports dergisinde GPT-3.5 ve GPT-4’ün ürettiği 84 kısa literatür incelemesini analiz etti. Buna göre incelemelerdeki toplam 636 atıf değerlendirildi. Bulgular çarpıcıdır. Buna göre GPT-3.5’in atıflarının %55’i tamamen uydurmadır. GPT-4 daha iyi olsa da atıflarının %18’i hâlâ uydurmadır. Üstelik gerçek atıfların da büyük kısmı sorunluydu. Nitekim GPT-3.5’in gerçek atıflarının %43’ünde ve GPT-4’ün gerçek atıflarının %24’ünde önemli atıf hataları tespit edildi. Bu hatalar yanlış yazar adı, dergi, cilt veya sayfa numarası şeklinde ortaya çıkıyor.
4.3.2. Bhattacharyya ve Diğerlerinin Tıbbi Bulguları
Sağlık alanında ise Bhattacharyya ve diğerleri (2023) bir başka çalışma gerçekleştirdi. Yazarlar Cureus dergisinde ChatGPT-3.5 tarafından üretilen 30 tıbbi makaleyi inceledi. Buna göre toplam 115 atıf değerlendirildi. Sonuçlar oldukça çarpıcıdır. Buna göre atıfların %47’si tamamen uydurmadır. %46’sı ise gerçek olmakla birlikte hatalıdır (yanlış yazar, yıl, sayfa veya PMID numarası). Yalnızca %7’si doğru ve eksiksizdir. Bu bulgular bir uyarı niteliği taşır. Akademik araştırmalarda üretken yapay zekânın kaynak gösterme amaçlı doğrudan kullanımı, ciddi riskler barındırır.
4.4. Sağlık Alanından Vakalar
Halüsinasyonun sağlıkta sonuçları potansiyel olarak ölümcüldür. Örneğin Salvagno ve diğerleri (2023) bu konuyu Critical Care dergisinde ele aldı. Yazarlara göre ChatGPT gibi modeller tıbbi bağlamda olgusal olarak yanlış fakat ikna edici çıktılar üretebilir. Bu durum ise klinik kararları olumsuz etkileyebilir.
Konuyu nicel olarak inceleyen Koenecke ve diğerleri (2024) daha somut bulgular sundu. Bu çalışmada yazarlar OpenAI Whisper transkripsiyon modelini değerlendirdi. Bu kapsamda afazili konuşmacılardan 13.140 ses parçası toplandı. Sonuçta ses parçalarının yaklaşık %1’inde tamamen uydurma cümle veya ifade tespit edildi. Daha da kötüsü, halüsinasyonlu transkripsiyonların %38’i zararlı içerikler taşıyordu. Bu içerikler şiddet ifadeleri, yanlış ilişkilendirmeler veya sahte otorite imalarıydı. Üstelik Whisper, Nabla aracılığıyla 30.000’den fazla klinisyen tarafından kullanılıyor. Buna göre yaklaşık 7 milyon tıbbi görüşmenin transkripsiyonunda yer aldı (Koenecke vd., 2024). Bu nedenle sağlık alanında üretken yapay zekânın kullanımı mutlaka insan denetimi (human-in-the-loop) içermelidir.
5. Bilişim Etiği Boyutu
5.1. Geliştiricinin Sorumluluğu
Uluslararası Standardizasyon Örgütü ISO/IEC 42001:2023 standardını yayımladı. Buna göre bu standart, yapay zekâ yönetim sistemleri için risk yönetimi, şeffaflık, izlenebilirlik ve hesap verebilirlik gerektirir (ISO, 2023). Geliştirici birden fazla konuda sorumludur. İlk olarak, eğitim verisinin kalitesinden sorumludur. İkincisi, modelin belirsizlik durumunda “bilmiyorum” diyebilmesini sağlamalıdır. Üçüncüsü, kullanıcıya halüsinasyon riski hakkında şeffaf uyarı vermekle yükümlüdür.
5.2. Kullanıcının Etik Yükümlülüğü
Mata v. Avianca kararı temel bir ilke ortaya koydu. Buna göre yapay zekâyı kullanmak değil, yapay zekâ çıktısını doğrulamamak etik ihlal teşkil eder. Bu ilke BÖTE öğrencileri için de bağlayıcıdır. Çünkü öğretmen adayı olarak öğrenciler, sınıfa “doğru bilgi” sunmadan önce AI çıktısını çapraz kontrol etmelidir. Aksi takdirde meslek etiği ihlal edilmiştir.
5.3. Bilgi Kirliliği ve Güven Sorunu
Günümüzde halüsinasyonlu çıktılar açık internette dolaşıma giriyor. Bu durum bir zincirleme etki yaratır. Çünkü gelecekteki LLM’lerin eğitim verisi de bu çıktılarla “kirlenebilir”. Sonuç olarak model çöküşü (model collapse) olgusu ortaya çıkar. Bender ve diğerlerinin (2021) “stokastik papağan” eleştirisi de bu noktaya işaret eder. Yazarlara göre modellerin anlamsız ama akıcı çıktı üretmesi epistemolojik olarak topluma zarar verebilir.
5.4. Yapay Zekâ Okuryazarlığı
UNESCO bu konuda önemli bir çerçeve sundu. Miao ve Cukurova (2024) tarafından geliştirilen AI Competency Framework for Teachers, öğretmen yetkinliklerini beş boyutta tanımlar. Bunlar şu şekildedir: insan-merkezli zihniyet, yapay zekâ etiği, yapay zekâ temelleri ve uygulamaları, yapay zekâ pedagojisi ve mesleki gelişim için yapay zekâ. BÖTE öğrencisi ise iki yetkinliği birlikte taşımalıdır. Birincisi, işlevsel olarak araçları kullanabilmek. İkincisi, etik olarak halüsinasyonun farkında olmak.
6. Çözüm Önerileri ve Yöntemler
6.1. Geri-Getirme Destekli Üretim (RAG)
Lewis ve diğerleri (2020) bu konuda öncü bir yaklaşım önerdi. Buna göre Retrieval-Augmented Generation (RAG) yaklaşımı, modeli statik parametrik bellekle sınırlı bırakmaz. Bunun yerine model, bir vektör veri tabanından gerçek belgeleri çeker ve bunlara dayanarak yanıt üretir. Huang ve diğerleri (2025) ise RAG’ın etkisini ölçtü. Buna göre RAG özellikle kurumsal bağlamlarda halüsinasyon oranını anlamlı şekilde düşürür. Ancak bir uyarı vardır. Eğer retrieval (geri-getirme) başarısız olursa, model hâlâ uydurma yapabilir. Yine de RAG ile çalışan bir LLM “kaynaklı yanıt” verebilir. Bu özellik akademik kullanım için kritik bir avantajdır.
6.2. İnsan Denetimli Yapay Zekâ (Human-in-the-Loop)
Özellikle sağlık ve hukuk gibi “yüksek risk” alanlarında ek bir önlem şarttır. Buna göre her AI çıktısı yayımlanmadan önce bir uzman tarafından gözden geçirilmelidir. Nitekim Mata v. Avianca (2023) davası bu ilkeyi açıkça ortaya koydu. Buna göre “imzayı atan profesyonel” nihai sorumludur.
6.3. Prompt Mühendisliği
Halüsinasyonu azaltmak için literatürde kanıtlanmış prompt teknikleri vardır (Huang vd., 2025; Wei vd., 2022). Bu teknikler aşağıdaki gibi sıralanabilir:
- “Bilmiyorum” izni: “Eğer emin değilsen, ‘bilmiyorum’ yanıtını ver. Bilgi uydurma.”
- Kaynak isteme: “Yanıtını desteklemek için her iddianı doğrulanabilir kaynaklarla belgele.”
- “According to” kalıbı: “World Health Organization 2023 raporuna göre…” şeklinde başlamak modeli kanıta dayalı yanıta yönlendirir.
- Chain-of-Thought (CoT): “Bu soruyu adım adım, gerekçelerini açıklayarak yanıtla” (Wei vd., 2022).
- Chain-of-Verification (CoVe): Modelin önce yanıt vermesi, ardından kendi yanıtını doğrulayan sorular üretip cevaplamasıdır.
- Bağlamı sınırlama: “Yalnızca verilen metinden yararlan; metinde olmayan hiçbir bilgiyi ekleme.”
6.4. Çok Kaynaklı Doğrulama ve SIFT Yöntemi
Caulfield’ın (2019) SIFT çerçevesi AI çıktılarını değerlendirmek için doğrudan uyarlanabilir. Bu çerçeve dört adımdan oluşur:
- S — Stop (Dur): AI yanıtını paylaşmadan önce dur, kaynağı sorgula.
- I — Investigate the Source (Kaynağı araştır): AI bir atıf vermişse, atıftaki dergi, yazar ve yıl gerçek mi?
- F — Find Better Coverage (Daha iyi kaynak bul): İddiayı Google Scholar, DOI.org veya kütüphane veri tabanlarında çapraz kontrol et.
- T — Trace Claims (İddiaların izini sür): Atıf veriliyorsa orijinal kaynağa kadar git.
6.5. Akademik Veri Tabanlarıyla Çapraz Doğrulama
Bir AI çıktısındaki her atıf için dört adım uygulanmalıdır. İlk olarak DOI doğrulaması yapılır. Yani doi.org adresine atıftaki DOI girilir. Gerçek bir makaleye yönlendiriyor mu kontrol edilir. İkinci olarak Google Scholar araması yapılır. Yazar adı ile makale başlığı kombinasyonu sonuç döndürüyor mu bakılır. Üçüncü olarak veri tabanı çapraz kontrolü yapılır. Türkiye için TR Dizin ve ULAKBİM kullanılır. Uluslararası için ise Web of Science, Scopus, PubMed ve ERIC tercih edilir. Son olarak yazar profili kontrol edilir. ORCID veya kurum web sayfasında yazarın varlığı ve ilgili konuda yayını doğrulanır.
6.6. Sıcaklık (Temperature) Ayarı
Bunun yanı sıra olgusal görevler için bir teknik ayar da yapar. Modelin “sıcaklık” parametresini düşürmek (0.3 veya altı) yaratıcı çeşitliliği azaltır. Sonuç olarak bu ayar halüsinasyonu kısıtlar.
7. Uygulama
Tablo 1
Üretken Yapay Zekâ Sistemlerinde Halüsinasyon ve Bilgi Doğrulama Etkinlik Planı
| Etkinlik Bölümü | İçerik |
|---|---|
| Açılış ve “Tuzak Soru” | Eğitmen, üretken yapay zekâ sistemlerinin güvenilirliğine dikkat çekmek amacıyla sınıfa canlı bir örnek sunar. Projeksiyon üzerinden ChatGPT veya Gemini’ye “Cengizhan, C. (2019) ‘Bilişim teknolojileri öğretmen adaylarının yapay zekâ tutumları’ adlı makalede ne diyor? Tam APA atıfını ver.” sorusunu yöneltir. Yapay zekâ sisteminin doğrulanamayan veya uydurma bir kaynak üretme olasılığı üzerinden öğrencilerle kısa bir tartışma yapar ve kaynağın gerçekliğini sınıfla birlikte değerlendirir. |
| Kavramsal Mini Ders | Eğitmen, üretken yapay zekâ sistemlerinde görülen “halüsinasyon” kavramını açıklar. İçsel ve dışsal halüsinasyon türlerini, ayrıca olgusallık ve sadakat kavramlarını örneklerle anlatır. Büyük dil modellerinin olasılıksal üretim mantığı nedeniyle neden yanlış veya uydurma bilgi üretebildiğini özetler (Ji vd., 2023; Huang vd., 2025). |
| Canlı Doğrulama Egzersizi | Dersin başında sınıf, yapay zekâ tarafından oluşturulan kaynağı birlikte doğrular. Öğrenciler DOI.org, Google Scholar ve TR Dizin gibi akademik veri tabanlarını kullanarak atfın gerçekliğini kontrol eder. Her öğrenci kendi cihazıyla sürece aktif olarak katılır. Eğer öğrenciler kaynağı doğrulayamazsa, sınıf bu durumu yapay zekâ halüsinasyonuna örnek olarak değerlendirir. |
| Prompt Karşılaştırma Etkinliği | Eğitmen, öğrencilere iki farklı istem örneği sunar. İlk örnek belirsiz ve kontrolsüz bir istemdir: “Yapay zekâ etiği hakkında 5 akademik kaynak ver.” İkinci örnek ise doğrulamaya yönelik sınırlamalar içerir: “Yalnızca doğrulanabilir DOI içeren makaleleri öner. Emin değilsen ‘bilmiyorum’ de ve uydurma kaynak üretme.” Öğrenciler iki çıktı arasındaki güvenilirlik farklarını karşılaştırmalı olarak değerlendirir. |
| Kontrol Listesi Uygulaması | Eğitmen, öğrencilere “Yapay Zekâ Bilgi Doğrulama Kontrol Listesi” dağıtır. Öğrenciler ikili gruplar hâlinde kendilerine verilen yeni bir yapay zekâ çıktısını inceler ve şüpheli gördükleri noktaları kontrol tablosuna işler. |
| Kapanış ve Refleksiyon | Dersin sonunda eğitmen öğrencilere “Bugün sizi en çok şaşırtan şey neydi?”, “Akademik çalışmalarınızda yapay zekâ çıktısını nasıl doğrulayacaksınız?” ve “Geleceğin öğretmeni olarak bu konuyu öğrencilerinize nasıl aktaracaksınız?” sorularını yöneltir. Öğrenciler sorular üzerinden kısa bir sınıf tartışması yapar ve etkinliği tamamlar. |
Not: Tablo, üretken yapay zekâ sistemlerinde halüsinasyon problemi ve bilgi doğrulama süreçlerine yönelik sınıf içi uygulama örneğini göstermektedir.
8. Sonuç
Üretken yapay zekâ halüsinasyonu kaçınılmaz bir olgu. Nitekim Xu ve diğerleri (2024) bunu biçimsel düzeyde kanıtladı. Mevcut mimari çerçevede halüsinasyon tamamen ortadan kaldırılamaz. Bu bağlamda BÖTE öğrencisinin görevi nettir. Yani amaç halüsinasyondan kaçınmak değil, halüsinasyonu yönetmektir. Bu da fark etmek, doğrulamak ve etik biçimde işaretlemek demektir. Mata v. Avianca (2023) davasının çekirdek dersi de tam olarak budur. Buna göre yapay zekâyı kullanmak meslek etiği ihlali değildir. Ancak çıktısını doğrulamamak ihlaldir. Öte yandan Moffatt v. Air Canada (2024) sorumluluğun kapsamını genişletti. Sorumluluk yalnızca son kullanıcıya değil, sistemi konuşlandıran kuruma aittir.
Özetle bilişim etiği dersinin kazanımı iki düzeyde işler. İlk olarak teknik nedensellik anlayışını içselleştirmek. İkinci olarak SIFT ve doğrulama kontrol listesi gibi pratik araçları öğrenmek. Geleceğin öğretmenleri olarak BÖTE öğrencileri çift yönlü bir misyon taşır. Bir yandan yapay zekâ okuryazarı bireyler yetiştirmelidir. Diğer yandan kendi sınıflarında bilgi kirliliğine karşı ilk siperi inşa etmelidir.
9.Kaynakça

Bu eser İrem Hatun Tek tarafından üretilmiş olup Creative Commons Atıf-AynıLisanslaPaylaş 4.0 Uluslararası Lisansı ile lisanslanmıştır.
Marmara Üniversitesi’nde İç Mimarlık bölümünde 2. sınıf, aynı zamanda Bilgisayar ve Öğretim Teknolojileri Eğitimi bölümünde 4. sınıf öğrencisiyim. Eğitim teknolojileri, tasarım ve yazılım alanlarının kesişiminde kendimi geliştirmeye ve üretmeye devam ediyorum. Disiplinler arası bir bakış açısıyla hem eğitim hem de tasarım süreçlerini bir araya getirerek yenilikçi çalışmalar yapmayı hedefliyorum.
Marmara Üniversitesi UZEM bünyesinde 3 yıl boyunca kısmî zamanlı olarak görev aldım. Bu süreçte uzaktan eğitim sistemleri, dijital içerik üretimi ve öğrenci etkileşimini artırmaya yönelik çalışmalarda aktif rol üstlendim. Eğitim teknolojilerinin uygulama boyutunu deneyimleyerek bu alandaki bilgi ve becerilerimi geliştirme fırsatı buldum.
Ayrıca Deneyap Teknoloji Atölyeleri’nde eğitmenlik yapıyorum ve iki farklı sınıfla aktif olarak çalışıyorum. Öğrencilerle robotik, kodlama ve teknoloji temelli dersler yürütüyor; onların üretme, problem çözme ve tasarım odaklı düşünme becerilerini geliştirmelerine katkı sağlıyorum. Öğrenmeyi daha etkili hale getirmek için derslerimde uygulamalı ve etkileşimli yöntemler kullanıyorum.
İç mimarlık eğitimimden gelen tasarım bakış açısını teknolojiyle birleştirerek hem eğitim hem de üretim süreçlerinde aktif rol alıyorum. Kendimi sürekli geliştirmeyi, farklı alanlar arasında bağlantı kurarak değer üreten projeler ortaya koymayı amaçlıyorum.

