Üretken Yapay Zekâ Çağında Yaratıcı Emeği Korumak

Özet: Üretken yapay zekâ son birkaç yıldır illüstratörler, çevirmenler, seslendirmenler ve içerik üreticileri için ciddi bir baskı kaynağı oldu. Bir yandan işler azalıyor. Öte yandan üretilen eserler izinsiz biçimde yapay zekâ modellerinin eğitim verisi haline geliyor. Bu çalışma sadece sorunu tartışmıyor; ayrıca yaratıcı emek veren kişinin bugün elinin altında bulunan somut araçları tanıtıyor. Yöntem olarak betimsel bir literatür taraması kullanılmıştır. Ayrıca Glaze, Nightshade, Have I Been Trained ve C2PA Content Credentials gibi araçlar işlevleri ve sınırlılıkları bağlamında karşılaştırılmıştır. Bunun yanı sıra serbest çalışan üreticilerin sözleşmelerine ekleyebileceği yapay zekâya ilişkin maddeler örneklendirilmiş ve eğitim videosu prodüksiyonu alanına dair sektörel gözlemlere yer verilmiştir. Çalışmanın temel sonucu şu: bu araçların hiçbiri tek başına yeterli değil. Ancak üst üste binecek şekilde kullanıldıklarında bugün için en gerçekçi koruma yöntemini oluşturuyorlar.

Anahtar Kelimeler: üretken yapay zekâ, bilişim etiği, yaratıcı emek, telif hakkı, Glaze, Nightshade, C2PA, içerik kimlik bilgisi.

İçindekiler

  1. Giriş
  2. Yöntem
  3. Yaratıcı Mesleklerde Yapay Zekâ Etkisi
  4. Görsel Eserleri Koruyan Araçlar
  5. Veri Setinden Çıkarılma Hakkı: Have I Been Trained
  6. İçerik Kimlik Bilgisi: C2PA Content Credentials
  7. Sözleşmesel Koruma Yöntemleri
  8. Sektörel Gözlem: Eğitim Videosu Üretimi
  9. Tartışma ve Sonuç
  10. Uygulama
  11. Kaynakça

1. Giriş

Üretken yapay zekâ son üç yılda artık sadece bir verimlilik aracı değil. Ayrıca yaratıcı emek piyasasının nasıl işlediğini doğrudan etkileyen bir aktör. İllüstratör, çevirmen, seslendirmen veya içerik üreticisi olarak çalışan birinin gündelik işleri bugün eskisinden farklı. Çünkü üretken modeller, daha önce insan üreticinin saatlerce uğraştığı işleri saniyeler içinde bitirebiliyor. Öte yandan bu modellerin eğitim verisi büyük ölçüde aynı insan üreticilerin paylaştığı eserlerden derleniyor (Schuhmann vd., 2022). Sonuçta yaratıcı emek tuhaf bir konuma düşüyor: hem hammadde hem rakip.

Mesele sadece teknik değil. Ayrıca uluslararası gündemde uzun süredir hukuki ve etik boyutlarıyla tartışılıyor. 2023 yılında Andersen ve diğer sanatçılar Stability AI ve birkaç başka şirkete karşı toplu dava açtı. Bu dava sanatçıların eserlerinin LAION-5B veri setinde rızaları dışında bulunduğunu mahkeme önüne taşıdı (Cohen, 2024). Ayrıca Avrupa Birliği 2024’te yürürlüğe giren Yapay Zekâ Yasası ile model sağlayıcılara şeffaflık yükümlülüğü getirdi. Türkiye için de yeni bir gelişme var. Çünkü 3 Eylül 2025 tarihinde TBMM’ye sunulan Yapay Zekâ Kanun Teklifi, yapay zekâ ile üretilen içeriklerin etiketlenmesini zorunlu kılmayı öngörüyor (Aktürk, 2024).

Bu çalışmada sorun sadece teorik olarak tartışılmamakta; aynı zamanda yaratıcı emek sahiplerinin bugün kullanabileceği somut araçlar uygulamalı bir çerçevede tanıtılmaktadır. Çalışmanın literatüre iki yönlü bir katkısı bulunduğu değerlendirilmektedir. Birincisi, akademik literatürde dağınık biçimde bulunan koruma araçları sınırlılıklarıyla birlikte değerlendirilmiştir. İkincisi, serbest çalışan üreticiler için sözleşmesel öneriler sunulmuştur. Ayrıca eğitim videosu prodüksiyonu alanındaki sektörel gözlemler aktarılarak seslendirme alanındaki pozisyon değişimi incelenmiştir.

Çalışmanın üç temel sorusu şunlardır: Yaratıcı meslek sahipleri hangi teknik araçlarla korunabilir? Bu araçların etkinliği ve sınırları nereye uzanıyor? Ayrıca Türk hukukunda FSEK çerçevesinde sözleşmesel koruma nasıl güçlendirilebilir?

2. Yöntem

Bu çalışmada betimsel bir literatür taraması yaptım. Ayrıca üç tür kaynağı taradım. İlki, alanın önde gelen akademik konferanslarında çıkan hakemli makalelerdi. Mesela USENIX Security Symposium ve IEEE Symposium on Security and Privacy. İkincisi, DergiPark’tan erişilen Türkçe akademik dergi makaleleriydi. Üçüncüsü ise C2PA ve Content Authenticity Initiative gibi standart kuruluşların açık erişimli teknik dokümanlarıydı. Akademik kaynak seçiminde 2022-2026 dönemini esas aldım. Ayrıca gri literatürden sadece standart belgeleri ve birincil kaynaklı üniversite duyurularını çalışmaya dahil ettim.

Koruma araçlarını değerlendirirken karşılaştırmalı bir yaklaşım izledim. Her bir aracın çalışma mantığını, koruma türünü, bilinen sınırlılıklarını ve Türkiye bağlamına uyarlanabilirliğini ayrı ayrı ele aldım. Hukuki çerçeveyi tartışırken FSEK ve TBMM’ye sunulan Yapay Zekâ Kanun Teklifi metinlerine başvurdum. Sektörel gözlem bölümü ise eğitim videosu prodüksiyonu alanındaki iki yıllık iş deneyimime dayanıyor. Bu kısım nitel bir vaka aktarımı niteliğinde. Dolayısıyla istatistiksel bir genelleme amacı taşımıyor.

3. Yaratıcı Mesleklerde Yapay Zekâ Etkisi

3.1. Üç Düzeyde Etki

Üretken yapay zekânın yaratıcı meslekler üzerindeki etkisini üç düzeyde okuyabiliriz. İlki doğrudan iş kaybı. Özellikle kısa süreli ve düşük bütçeli işlerde insan üretici devre dışı bırakılıyor. Mesela kurumsal eğitim videosu seslendirmesi veya stok illüstrasyon gibi alanlar. İkincisi fiyat baskısı. Çünkü işveren aynı işi yapay zekâ ile düşük maliyete üreteceğini biliyor. Bu yüzden insan üreticiye sunulan ücret aşağı çekiliyor. Üçüncüsü ise hak ihlali. Üretici çoğu zaman geçmiş çalışmalarının izni alınmadan eğitim verisi olarak kullanıldığını model piyasaya çıktıktan sonra fark ediyor (Özdal, 2024).

3.2. Eğitim Verisi Sorunu: LAION-5B Örneği

Üretken görsel modellerin büyük bölümü dev veri setleri üzerinde eğitiliyor. Bu veri setleri internetten kazıma yoluyla toplanıyor. Bunların en kapsamlısı LAION-5B. Ayrıca yaklaşık 5,85 milyar görsel-metin çifti içeriyor (Schuhmann vd., 2022). Veri seti oluşturulurken sanatçıların eserleri rızaları dışında dahil edildi. Mesela ArtStation, DeviantArt ve kişisel sitelerdeki portfolyolar. Bunun bir somut örneği var. Andersen ve diğerlerinin Stability AI’ye karşı açtığı davada davacıların eserlerinin LAION-5B’de yer aldığı Have I Been Trained aracılığıyla mahkemeye sunuldu. Bu yüzden dava esastan görülmek üzere ileri aşamaya alındı (Cohen, 2024).

Türk hukuku açısından bu durum tartışmalı. Çünkü FSEK madde 8’e göre eser sahibi, eseri meydana getiren kişi. Ayrıca eser sahibinin izni dışında çoğaltma, yayma veya işleme mali hakların ihlali sayılıyor. Ancak yapay zekâ eğitiminde gerçekleşen veri kullanımı klasik çoğaltma kavramından farklı bir teknik yapı taşıyor. Bu yüzden mevcut mevzuat altında nasıl değerlendirileceği henüz net değil (Aktürk, 2024).

3.3. Ses Klonlama ve Seslendirme Sektörü

Yaratıcı emeğin en hızlı ikame edildiği alanlardan biri seslendirme sektörü. Mittal ve Gupta (2025), seslendirme sanatçıları üzerine nitel bir araştırma yaptı. Ayrıca altı temel kaygı kategorisi tespit ettiler: mahremiyet, itibar, hesap verebilirlik, rıza, kredi ve telafi (PRAC3). Araştırmadaki en çarpıcı bulgu şu. Seslendirme sanatçıları izinsiz klonlanmış kendi seslerinin internette dolaştığını söylüyorlar. Ayrıca bu seslerin etik dışı içeriklerde kullanıldığını fark ettiklerini belirtiyorlar.

Türkiye’de oyun sektöründeki seslendirme sanatçıları için de benzer riskler var. KYO Legal Hukuk Bürosu’nun değerlendirmesine göre ses klonlama teknolojilerinin yaygınlaşması ciddi sonuçlar doğuruyor. Çünkü seslendirme sanatçılarının açık rıza haklarını ve sözleşmesel güvencelerini doğrudan etkiliyor (Aktürk, 2024). Bu sadece oyun sektörüne özgü değil. Ayrıca eğitim videosu, reklam ve kurumsal iletişim alanları için de geçerli.

4. Görsel Eserleri Koruyan Araçlar

4.1. Glaze ve Nightshade Hakkında

Chicago Üniversitesi’nde Profesör Ben Zhao liderliğindeki SAND Lab iki ücretsiz araç geliştirdi: Glaze ve Nightshade. İkisi de görsel sanatçıların eserlerini yapay zekâ eğitiminden korumayı hedefliyor (Shan vd., 2023). Ayrıca çalışma mantıkları benzer. Her ikisi de görsele insan gözüyle algılanamayan piksel düzeyinde bozulmalar (perturbasyon) ekliyor. Bu bozulmalar makine öğrenmesi modellerini yanıltıyor. Cambridge Üniversitesi’nin verilerine göre iki araç toplamda yaklaşık 9 milyon kez indirilmiş (Foerster vd., 2025).

4.2. Glaze: Stil Maskeleme

Shan ve diğerleri (2023) USENIX Security Symposium’da Glaze çalışmasını sundu. Ayrıca çalışma Distinguished Paper Award ile Internet Defense Prize kazandı. Glaze pasif bir koruma yaklaşımı benimsiyor. Çünkü aracın eklediği bozulmalar modelin sanatçının stilini öğrenmesini güçleştiriyor. Mesela fotoğraf gerçekçiliğindeki bir tabloyu modele çizgi film stilindeymiş gibi algılatabiliyor. Bu yüzden Glaze tanınabilir bir kişisel stile sahip dijital illüstratörler için öncelikli araç olarak öneriliyor. Çalışmada bin sanatçıyla yapılan kullanıcı testinde aracın stil taklidini bozma başarısı %92’nin üzerinde bulunmuş (Shan vd., 2023).

4.3. Nightshade: Veri Zehirleme

Shan ve diğerleri (2024) IEEE Symposium on Security and Privacy’de Nightshade çalışmasını sundu. Ayrıca bu araç daha saldırgan bir tutuma sahip. Çünkü görsele eklediği görünmez perturbasyonlar modelin görseli yanlış bir kavramla eşleştirmesine yol açıyor. Yani bir kedi görseli modele köpek olarak öğretilebiliyor. Yazarlar Stable Diffusion XL üzerinde deneyler yaptı. Ayrıca 100’den az zehirlenmiş örnekle modelin belirli bir kavrama verdiği yanıtın tamamen kontrol altına alınabildiğini gösterdiler (Shan vd., 2024). Bunun yanı sıra eklenen perturbasyonlar olağan görsel işlemlere karşı dayanıklılık gösteriyor. Mesela kırpma, sıkıştırma ve yeniden örnekleme gibi işlemler.

4.4. Koruma Araçlarının Sınırları: LightShed

Bu araçların mutlak bir koruma sağladığını söylemek zor. Çünkü Cambridge Üniversitesi, Darmstadt Teknik Üniversitesi ve Teksas-San Antonio Üniversitesi’nden bir araştırma ekibi LightShed yöntemini geliştirdi. Bu yöntem Glaze ve Nightshade’in eklediği bozulmaları tespit edip tersine mühendislikle temizleyebiliyor (Foerster vd., 2025). USENIX Security Symposium 2025’te sunulan çalışma çarpıcı bir veri sundu. LightShed Nightshade ile korunan görselleri %99,98 doğrulukla tespit etmiş. Ayrıca perturbasyonları etkili biçimde temizlemiş. Ancak araştırmacılar LightShed’i bir saldırı olarak konumlandırmıyor. Aksine daha iyi koruma araçlarına ihtiyaç duyulduğuna dair bir uyarı çağrısı olarak görüyorlar.

Bu bulgudan çıkan sonuç şu: Glaze ve Nightshade tek başına bir kalkan değil. Dolayısıyla çok katmanlı bir koruma stratejisinin parçası olarak düşünülmeli. Ayrıca koruma araçları ile saldırı yöntemleri arasındaki kedi-fare ilişkisinin kısa vadede süreceği de görünen bir gerçek.

5. Veri Setinden Çıkarılma Hakkı: Have I Been Trained

Spawning adlı bağımsız bir kuruluş Have I Been Trained (HIBT) hizmetini geliştirdi. Bu hizmet sanatçıların eserlerini LAION-5B veri seti içinde aramasına olanak tanıyor. Ayrıca kayıt dışında bırakma (opt-out) talebinde bulunma imkânı sunuyor. Daha önce bahsettiğim Andersen davasında HIBT mahkemeye kanıt olarak da kullanıldı (Cohen, 2024). Sanatçı eserini bulduğunda Spawning’in Do Not Train (DNT) kaydına ekleyebiliyor. Böylece gelecekteki eğitim turlarından çıkarılma talebi yapabiliyor.

Stability AI ve Hugging Face gibi büyük yapay zekâ şirketleri Spawning’in DNT kaydını tanıyacaklarını açıkladı. Ayrıca Avrupa Birliği Telif Hakkı Direktifi’nin metin ve veri madenciliği (TDM) istisnası önemli bir kural getiriyor. Çünkü ticari model geliştiricilerinin hak sahiplerinin opt-out taleplerine uymasını gerektiriyor. Yani DNT sadece etik bir talep değil. Aynı zamanda yasal bir dayanağı olan bir hak. Türkiye için doğrudan bir karşılığı yok. Ancak FSEK madde 25 kapsamındaki mali haklar (çoğaltma ve yayma) ile bu çerçeveyi dolaylı olarak ilişkilendirmek mümkün (Aktürk, 2024).

6. İçerik Kimlik Bilgisi: C2PA Content Credentials

6.1. Standardın İşleyişi

Content Credentials açık ve telifsiz bir teknik standart. Ayrıca Coalition for Content Provenance and Authenticity (C2PA) tarafından yönetiliyor. Bu koalisyon Adobe öncülüğünde Microsoft, BBC, Intel, Truepic ve Arm tarafından 2021’de kuruldu (Rosenthol, 2022). İşlevi şu: Bir görsele, sese veya videoya kriptografik imzalı bir içerik etiketi (manifest) ekliyor. Bu etikette çeşitli bilgiler yer alıyor. Mesela içeriğin kim tarafından, ne zaman ve hangi araçlarla üretildiği. Ayrıca hangi düzenlemelerden geçtiği ve yapay zekânın kullanılıp kullanılmadığı da etikete dahil. Adobe bu yapıyı dijital içerik için bir besin değeri etiketi olarak tanımlıyor.

Standardın 2025’te belirgin bir olgunluk düzeyine ulaştığını söyleyebiliriz. Çünkü Cloudflare içerik dağıtım ağı C2PA standardını destekleyen ilk büyük internet altyapı şirketi oldu. Yani internetin yaklaşık %20’sini kapsayan bir altyapıdan bahsediyoruz. Ayrıca Sony, Leica, Nikon, Fujifilm ve Canon gibi büyük kamera üreticilerinin tamamı C2PA’ya katıldı. Google ise Pixel 10 telefonlarında Content Credentials desteğini en yüksek güvenlik kademesinde uyguladı. Bunun yanı sıra LinkedIn ve TikTok da yapay zekâ etiketleme akışlarını C2PA üzerinden işletmeye başladı (Rosenthol, 2022; Foerster vd., 2025).

6.2. Türkiye’deki Yasal Çerçeve

Türkiye’de Content Credentials kullanımı henüz yaygın değil. Ancak 3 Eylül 2025 tarihinde TBMM’ye sunulan Yapay Zekâ Kanun Teklifi önemli bir adım. Çünkü teklif yapay zekâ ile üretilen deepfake içeriklerin “yapay zekâ tarafından üretilmiştir” ibaresiyle açıkça etiketlenmesini zorunlu kılmayı öngörüyor (Aktürk, 2024). Dolayısıyla orta vadede C2PA benzeri bir teknik altyapının Türkiye’de de yaygınlaşması olası. Bence içerik üreticilerinin bu standartla bugünden tanışması gelecekte bir uyum yükü değil. Aksine bir kullanım avantajı olacak.

7. Sözleşmesel Koruma Yöntemleri

7.1. Sözleşmesel Korumanın Önemi

Teknik araçlar kadar önemli bir başka koruma katmanı daha var: sözleşmesel koruma. Freelance üreticiler sözleşmelerine yapay zekâ maddeleri ekleyebilir. Böylece eserin teslim edildikten sonra yapay zekâ eğitim verisi olarak kullanılmasını engelleyebilir. Ayrıca tarafların hak ve sorumlulukları netleşir. Türk hukuku açısından bu maddelerin sağlam bir zemini var. Çünkü FSEK eser sahipliği tanımı (m. 8) ve mali hak devirlerinin yazılı şekil şartı (m. 52) sözleşmesel koruma maddelerini destekliyor (Aktürk, 2024; Özdal, 2024).

7.2. Örnek Sözleşme Maddeleri

Aşağıda üç örnek madde öneriyorum. Her biri eser üzerindeki mali hakların kapsamını sözleşmesel olarak daraltıyor. İlk madde eserin yapay zekâ eğitim verisi olarak kullanılmasını yasaklıyor. İkinci madde özellikle seslendirme sanatçıları için. Çünkü ses kayıtlarının klonlama amacıyla kullanılamayacağını belirtiyor. Üçüncü madde ise yüklenicinin yapay zekâ kullanımına ilişkin şeffaflık yükümlülüğünü düzenliyor. Ancak bu maddeleri uygulamadan önce bir avukatla değerlendirilmesini öneririm. Çünkü burada yer alan örnekler bir başlangıç şablonu niteliğinde.

Madde 1 — Yapay zekâ eğitim verisi olarak kullanım yasağı: Müşteri, işbu sözleşme kapsamında teslim alınan eseri herhangi bir üretken yapay zekâ modelinin eğitim verisi olarak doğrudan veya dolaylı biçimde kullanamaz. Ayrıca üçüncü kişilere bu amaçla devredemez. Aksi durumda eser sahibinin FSEK kapsamındaki tüm yasal hakları saklıdır.

Madde 2 — Ses kaydının kullanım sınırı: Müşteri, eser sahibinin ses kayıtlarını yalnızca sözleşmede belirtilen proje kapsamında kullanabilir. Ayrıca kayıtların yapay zekâ tabanlı ses klonlama sistemlerine yatırılması açıkça yasaktır. Sentetik ses modeli üretimi için kullanılması ve bu yolla yeni içerikler üretilmesi de bu yasak kapsamındadır.

Madde 3 — Yapay zekâ kullanım şeffaflığı: Yüklenici çalışmada üretken yapay zekâ aracı kullandıysa şunu yapmakla yükümlüdür. Hangi aracı hangi amaçla kullandığını teslimat sırasında müşteriye yazılı olarak bildirmelidir. Ayrıca müşteri eseri üçüncü taraflara sunduğunda bu bilgiyi koruyacak iletişim formatlarını kullanmayı taahhüt eder. Örneğin C2PA Content Credentials gibi.

8. Sektörel Gözlem: Eğitim Videosu Üretimi

Türkiye’de eğitim teknolojileri sektöründe video üretimi yapıyorum. Bu yüzden son iki yılda yaşadığım dönüşümü birinci elden gözlemledim. Şöyle anlatayım. İki yıl önce çalıştığım kurumda kurumsal eğitim modüllerinin neredeyse tamamı için profesyonel seslendirme stüdyolarıyla çalışıyorduk. Ancak bugün durum farklı. 2026 itibarıyla modüllerin önemli bir bölümü ElevenLabs gibi yapay zekâ tabanlı ses üretim araçları üzerinden gerçekleştiriliyor. Dolayısıyla bu değişim üç pratik sonuç doğurdu.

Birincisi, hız ve maliyet avantajı sektörel olarak çok büyük. Bu yüzden eski iş akışına dönüş artık pek olası görünmüyor. İkincisi ilginç bir paradoks. Çünkü insan seslendirme talebi azaldıkça geriye kalan “insan dokunuşu” daha da değerleniyor. Yani belirli bir nitelik eşiğinin üzerinde kalan ve karakterli sesle çalışan sanatçılar için piyasa daralıyor. Ancak birim başı ücretler düşmüyor. Hatta bazı durumlarda artıyor bile. Üçüncü sonuç üretici tarafında yeni bir yetkinlik kazanma gerekliliği. Yapay zekâ ile çalışmayı bilen ve prompt yazabilen bir profil gerekiyor. Ayrıca çıktıyı denetleyebilen ve gerektiğinde insan üreticiyle hibrit bir akış kurabilen bir koordinatör profili gerekiyor. Bu profil klasik “seslendirmen” ya da “motion grafiker” olmaktan farklı bir konumlanış istiyor. Bu gözlem Mittal ve Gupta’nın (2025) uluslararası araştırmasının bulgularıyla da örtüşüyor.

9. Tartışma ve Sonuç

9.1. Araçların Sınırları

Bu çalışmada tanıttığım araçların hiçbiri tek başına mutlak bir koruma sağlamıyor. Bunu baştan kabul etmek gerek. Çünkü Foerster ve diğerlerinin (2025) gösterdiği gibi Glaze ve Nightshade’in koruma katmanı LightShed gibi yöntemlerle aşılabiliyor. Ayrıca Have I Been Trained yalnızca LAION-5B veri setini kapsıyor. Yani başka veri setlerinden çıkarılma için ayrı talepler gerekiyor. C2PA Content Credentials içeriğin tarihçesini gösteriyor. Ancak bir görselin yapay zekâ tarafından eğitim verisi olarak kullanılmasını teknik olarak engelleyemez. Sözleşme maddeleri de ancak ihlal gerçekleştikten sonra uygulanabilir bir caydırıcılık üretiyor.

9.2. Çok Katmanlı Koruma Stratejisi

Dolayısıyla yaratıcı meslek sahibinin bugün izleyebileceği en gerçekçi yol şu. Bu araçları üst üste binecek koruma katmanları olarak kullanmak. Önerdiğim çok katmanlı koruma stratejisi şu bileşenlerden oluşuyor. İlki, görsel eserler için Glaze veya Nightshade ile işleme. İkincisi, yayın anında C2PA Content Credentials iliştirme. Üçüncüsü, kaynak görselleri Have I Been Trained üzerinden Do Not Train kaydına ekleme. Dördüncüsü, çalışmaları sözleşmesel koruma maddelerini içeren bir akitle teslim etme. Bunların ötesinde bir adım daha var. Mümkünse pozisyon değişikliği yoluyla yapay zekânın üretim akışını denetleyen bir konuma geçmek.

9.3. Türkiye İçin Öneriler ve Sınırlılıklar

Türkiye bağlamında yeni bir süreç başladı. TBMM’ye sunulan Yapay Zekâ Kanun Teklifi’nin yasalaşmasıyla birlikte içerik etiketleme yükümlülüklerinin somutlaşması bekleniyor (Aktürk, 2024). Ayrıca FSEK’in mali haklara ilişkin hükümleri güncellenmeli. Çünkü yapay zekâ eğitim verisi kullanımına özgü düzenlemeler gerekli. Özdal (2023, 2024) da bu noktaya dikkat çekiyor. Yani Türk mevzuatının bu yönde güncellenmesi öncelikli bir gereklilik.

Çalışmanın bazı sınırlılıkları var. Sektörel gözlem bölümü tek bir uygulayıcının deneyimine dayanıyor. Ayrıca nicel veri içermiyor. Bu yüzden ilerleyen araştırmalar farklı yaratıcı meslek gruplarından üreticilerle yapılacak görüşme ve anket çalışmalarıyla burada sunduğum çerçeveyi nicel olarak sınayabilir. Ayrıca C2PA benzeri içerik kimlik bilgisi standartlarının Türkçe medya ekosistemindeki erken benimseme örüntüleri de incelemeye değer bir başka araştırma alanı.

10. Uygulama

YARATICI EMEĞİ KORUMA WORKSHOP’U

Bilişim Etiği · 15 Dakikalık Sınıf Sunumu
Erol Türkkan

Tablo 1
Workshop Genel Formatı

Süre Format Hedef Materyal
10–15 dk Sunum + 2 canlı demo 2 araç + sözleşme Laptop + projeksiyon

Bu rehber, konu kapsamında tasarlanan 10-15 dakikalık bir sınıf sunumu için planlanmıştır. Kısıtlı süre göz önünde bulundurularak en kritik iki uygulama seçilmiş olup, sunum sonrasında değerlendirilebilecek ek tartışma konuları da çerçeveye dahil edilmiştir.

1. Ders Akışı (15 Dakika)

Aşağıda dakika bazında planlanan sunum akışı sunulmaktadır. Sürenin kısıtlı olması durumunda ikinci uygulamanın atlanarak doğrudan kapanış bölümüne geçilmesi öngörülmektedir.

Tablo 2
Örnek Ders Akışı

Süre Tür Konu Anahtar Mesaj
0–2 dk Açılış Sorunu tanıt Sektörden örnek: Yapay zekanın seslendirme alanındaki rolü
2–4 dk Çerçeve İki yönlü sorun Sanatçı hem hammadde hem rakip. LAION-5B örneği
4–8 dk Uygulama 1 Have I Been Trained İnteraktif katılım ve görsel taraması
8–11 dk Uygulama 2 Glaze + Nightshade konsepti Karşılaştırmalı görsellerin incelenmesi
11–13 dk Sözleşme 3 maddenin kısa özeti Teknik araçların sözleşme ile desteklenmesi
13–15 dk Kapanış Çok katmanlı koruma Temel mesajların özetlenmesi ve soru-cevap

2. Açılış (0-2 dk)

Sunum İçeriği ve Vurgulanacak Temel Mesajlar: “Ben eğitim teknolojileri sektöründe video üretimi yapıyorum. İki sene önce çalıştığım kurumda kurumsal eğitim videolarının seslendirmesi için 4 farklı seslendirmenle çalışıyorduk. Bugün modüllerin büyük kısmını ElevenLabs gibi AI ses araçlarıyla yapıyoruz. Bu sadece bizim sektörde değil, illüstratörler, çevirmenler ve içerik üreticilerinin tamamında oluyor. Üstelik daha kötüsü var: bu AI modelleri, daha önce bu sanatçıların izinsiz alınmış eserleriyle eğitildi. Yani sanatçı hem hammadde hem rakip oldu. Şimdi size buna karşı bugün kullanılabilecek araçları göstereceğim.”

3. Uygulama 1 — Have I Been Trained (4-8 dk)

Bu en interaktif ve etkili kısım. Tüm sınıf telefonlarından eş zamanlı katılım sağlayabilir.

Sunum İçeriği ve Vurgulanacak Temel Mesajlar: “Hepiniz telefonlarınızı çıkarın. Şu siteyi açın: haveibeentrained.com. Şimdi Instagram’dan bir fotoğrafınızı sürükleyin veya yükleyin. Bakalım kim AI veri setinde, kim değil.”

Uygulama Adımları:
  1. Siteyi telefondan veya bilgisayardan aç: haveibeentrained.com
  2. Önceden hazırladığım kendi görselimi yükle ve sonucu göster.
  3. Sınıfa 1-2 dakika ver. Birinin görseli LAION-5B’de çıkarsa sahnele: “Bakın, bu arkadaşımızın Instagram fotoğrafı şu an Stable Diffusion’ın eğitim setinde. İzni alındı mı? Hayır. İşte sorun bu.”
  4. “Opt Out” seçeneğini hızlıca göster: “Bu kayıt Stability AI ve Hugging Face tarafından tanınıyor. Yani veri setinden çıkmak istediğinizi resmi olarak belirtebilirsiniz.”

💡 İPUCU: Bu kısımda WiFi sorun olabilir. Yedek olarak telefonunda önceden çekilmiş bir ekran görüntüsü hazır olsun.

4. Uygulama 2 — Glaze + Nightshade Konsepti (8-11 dk)

Bu kısımda canlı program çalıştırmıyorum. Çünkü Glaze işlemi 10-15 dakika sürüyor. Onun yerine konsepti anlatıp önceden hazırlanmış karşılaştırma görselini gösteriyorum.

Sunum İçeriği ve Vurgulanacak Temel Mesajlar: “Chicago Üniversitesi iki ücretsiz program geliştirmiş: Glaze ve Nightshade. İkisi de şu işe yarıyor: görselinize insan gözünün göremediği bir tabaka ekliyor. Siz hiçbir fark görmüyorsunuz ama AI modelleri görseli bambaşka algılıyor. Glaze pasif: ‘benim stilimi öğrenme’ diyor. Nightshade ise aktif: ‘beni izinsiz alırsan modelin bozulur’ diyor. Bakın bu önceden hazırladığım örnek görseli…”

Uygulama Adımları:
  1. Önceden hazırladığım orijinal vs glazed yan yana karşılaştırma görselini projeksiyona yansıt.
  2. Sınıfa sor: “Fark görüyor musunuz?” Hayır cevabı alınca: “İşte! AI da göremiyor. Ama AI için görsel bambaşka.”
  3. Önemli sınır: Cambridge Üniversitesi 2025’te LightShed yöntemini geliştirdi. Bu yöntem Glaze ve Nightshade’i kırıyor. Yani mutlak koruma yok, katmanlı koruma var.

5. Sözleşmesel Koruma (11-13 dk)

Sunum İçeriği ve Vurgulanacak Temel Mesajlar: “Teknik araçlar kadar önemli bir şey daha var: sözleşme. Freelance çalışıyorsanız sözleşmenize 3 madde ekleyin. Birincisi: müşteri eserimi AI eğitimine veremez. İkincisi seslendirme için: ses kayıtlarım klonlamaya gidemez. Üçüncüsü: müşteri AI kullandığında bunu C2PA gibi sistemlerle etiketlemek zorunda. Bu maddeler Türk hukukunda FSEK madde 8 ve 52 ile koruma altında.”

6. Kapanış (13-15 dk)

🗣 KONUŞMAYI BİTİRİRKEN: “Üç cümle ile bitiriyorum: Birincisi: Mutlak bir koruma yok, çok katmanlı bir koruma var. İkincisi: Have I Been Trained + Glaze + C2PA + sözleşme — bu dört katman birlikte iş yapıyor. Üçüncüsü: AI’ı reddetmek değil, AI’ın üretim akışını denetleyen taraf olmak. Sorularınızı alabilirim.”

Sunum sırasında kullanacağım linkler

Tablo 3
Sunumda Kullanılacak Araç Bağlantıları

Adres Kullanım Amacı
haveibeentrained.com Uygulama 1 — canlı arama
glaze.cs.uchicago.edu Uygulama 2 — site referansı
contentcredentials.org/verify C2PA — alternatif demo

7. Önerilen Ek Sınıf İçi Etkinlikler

Bilişim etiği dersi bağlamında makaleyi güçlendirebileceğim ek fikirler de burada. 15 dakikalık sunuma sığmadılar ama sınıf arkadaşlarımın görmesi gereken noktalar.

7.1. C2PA Content Credentials

Adobe öncülüğünde Microsoft, BBC, Google, Sony ve OpenAI’ın 2021’de kurduğu bir koalisyon var: C2PA. Bu koalisyon içeriğin kim tarafından, ne zaman, hangi araçla üretildiğini kriptografik olarak doğrulanabilir hale getiren bir teknik standart geliştirdi. Tıpkı süt kutusunun arkasındaki besin değeri etiketi gibi.

Türkiye için önemli bir gelişme: 3 Eylül 2025’te TBMM’ye sunulan Yapay Zeka Kanun Teklifi’ne göre AI ile üretilen içerikler ‘yapay zeka tarafından üretilmiştir’ ibaresiyle etiketlenecek. Yani yakında bizde de zorunlu olacak. C2PA bunun teknik altyapısı.

Demo uygulaması kapsamında contentcredentials.org/verify adresi üzerinden önceden hazırlanmış imzalı görsel yüklenerek doğrulama etiketi (nutrition label) katılımcılara gösterilecektir.

7.2. Tartışma Soruları (Soru Cevap Bölümü İçin)

S1: AI’ı durdurmak mümkün mü?
Cevap: Hayır. Ama AI kullanımının üretim akışını insan üreticinin denetlediği bir konuma geçmek mümkün. Ben kendi sektörümde bunu yaşıyorum. Artık “seslendirmen tut” diyen müşteriden çok “ben AI ses üretiyorum, sen kalitesini denetle ve gerektiğinde insan dokunuşu kat” diyen müşteri var. Pozisyon, üretici olmaktan koordinatör ve denetçi olmaya geçiyor.

S2: Hangi araçları öncelikli kullanmalıyım?
Cevap: Senin alanına bağlı. İllüstratör isen Glaze + HIBT öncelikli. Fotoğrafçı veya video üreticisi isen C2PA Content Credentials. Seslendirmen isen sözleşme maddeleri. Freelance isen hepsi birden.

S3: Bu araçların kendisi etik mi? Nightshade aktif olarak AI modellerini bozuyor.
Cevap: Çok iyi bir soru. Nightshade’in geliştiricileri bunu hack olarak değil, dijital meşru müdafaa olarak görüyor. İzinsiz eğitim verisi olarak alınma karşısında sanatçının kendi eserine müdahale hakkı. Etik literatürde bu, Lockean öz-savunma kavramı çerçevesinde tartışılıyor. Burada meşru savunma ile bilgi serbest dolaşımı prensipleri çatışıyor.

S4: Türkiye’de yasal durum ne?
Cevap: Bugün için belirsiz. FSEK insan üreticileri koruyor ama AI eğitim verisi kullanımına dair özel madde yok. 3 Eylül 2025’te TBMM’ye sunulan Yapay Zeka Kanun Teklifi var ama henüz yasalaşmadı. AB Yapay Zekâ Yasası 2024’te kabul edildi ve Türkiye’nin de bu yönde adım atması bekleniyor.

S5: Ben sadece kullanıcıyım, bu sorun beni neden ilgilendirsin?
Cevap: Çünkü bilişim etiği sadece bireysel kullanım etiği değil; sistem etiği. ChatGPT kullanırken hangi kitaplardan eğitildiğini bilmiyorsun. Midjourney kullanırken hangi sanatçının izinsiz eseri model çıktısının içinde olduğunu bilmiyorsun. Kullanıcı olarak senin bu zincirin neresinde durduğunu sorgulamak, etik sorumluluğunun bir parçası.

7.3. Bilişim Etiği Dersi Bağlamı

Bu workshop’u dersle ilişkilendirmek için aşağıdaki bağlantı noktalarını sunum sonunda veya soru-cevap sırasında öne çıkarabilirim. Bunlar makaledeki tezleri bilişim etiği dersinin klasik konularına bağlıyor.

Şeffaflık ve hesap verebilirlik: Üretken yapay zekânın eğitim verisi opaklığı, bilişim etiğinin temel ilkelerinden biri olan şeffaflığı doğrudan zedeliyor. C2PA Content Credentials ise içerik üreten tarafa bir izlenebilirlik aracı sunarak bu opaklığa karşı bir teknik yanıt öneriyor.

Rıza ve veri özerkliği: Have I Been Trained ve Do Not Train kaydı, kullanıcıya kendi verisi üzerinde bir geri-alım hakkı tanıyor. Bu, KVKK ve GDPR ile yakından ilgili olan “bilgilendirilmiş rıza” ilkesinin yaratıcı eserlere uyarlanmış bir biçimi.

Dijital meşru müdafaa: Nightshade gibi araçlar klasik bilişim etiği literatüründe pek tartışılmayan yeni bir kavramı gündeme getiriyor: dijital meşru müdafaa. Bir sanatçının kendi eserine bozucu bir tabaka eklemesi, sistemleri kasıtlı olarak yanıltmak anlamına geliyor. “Bilgisayar sistemlerine zarar verme” yasaklarıyla ilk bakışta çelişiyor gibi görünür. Ama izin alınmamış eğitim verisi pratiğinin etik açıdan sorunlu olduğunu kabul ettiğimizde, bu eylem meşrulaşabilir.

Kolektif eylem ve sektörel etik: Andersen v. Stability AI davası bireysel sanatçıların değil bir sanatçı kolektifinin açtığı bir dava. “Kolektif eylem etiği” çerçevesinde bu davayı dijital emek piyasasında örgütlü bir etik müdahale örneği olarak konumlandırabilirim.

Yerel uyarlama: Türkiye bağlamı: Bilişim etiği derslerinde sıkça eksik kalan bir nokta var: tartışmaların Türkiye’ye özgü olarak uyarlanması. FSEK madde 8 ve 25’in yapay zekâ veri kullanımına dolaylı biçimde uygulanabilirliğini ve TBMM’ye sunulan Yapay Zekâ Kanun Teklifi’nin getireceği etiketleme zorunluluğunu vurgulayarak bu boşluğu kısmen doldurabilirim.

7.4. Makaleyi Daha da Güçlendirme Önerileri

Workshop hazırlığını yaparken makalenin etkisini artırabilecek birkaç ek fikir aklıma geldi. Hocayla görüşürken bunları önerebilirim:

Mini-anketle hibrit araştırma: Sınıf arkadaşlarımla 5-6 soruluk küçük bir anket yapabilirim. Mesela: “Görsel paylaştığın platformların telif politikasını okudun mu? Bir eserinin AI eğitim verisi olarak kullanılması seni nasıl hissettirir?” Anketin sonuçlarını makaleye bir bulgu olarak ekleyebilirim. Böylece makale sadece derleme değil, hibrit bir araştırma haline gelir.

Etik karar çerçevesi: Bilişim etiği dersinin karakteristik bir özelliği var: somut karar verme çerçevesi sunmayı sever. Makaleye, üreticinin yapay zekâ kullanım kararı verirken kendine sorması gereken 5-6 soruluk bir kontrol listesi eklemeyi düşünüyorum. Mesela: “Bu eseri AI ile üretirken hangi eserlerin eğitim verisi olarak kullanılmış olabileceğini sorguladım mı? Bu eseri tarafıma teslim eden kişiye AI kullanımı için açık rıza alıyor muyum?”

Türkçe akademik tartışmaya katkı: Türkçe akademik literatürde Glaze, Nightshade, C2PA gibi araçlar üzerine ayrıntılı bir derleme henüz yok denecek kadar az. Makalem bu boşluğu doldurmaya aday bir Türkçe kaynak olarak konumlanabilir. Sonuç bölümünde bunu vurgulayıp, makalenin bir sonraki adımda DergiPark gibi bir platformda akademik makale olarak yayımlanabileceğini hocama belirtmek değerli olabilir.

Dersi takip eden mikro-proje: Hocamla görüşürken workshop sonrası bir mikro-proje önerebilirim: sınıftaki her öğrenci kendi sosyal medya hesabından 5 görsel için Have I Been Trained taraması yapsın ve sonuçları bir Google Forms üzerinden paylaşsın. Bu, bilişim etiği dersinde sıkça eksik kalan “deneyimsel öğrenme” boyutunu kuvvetlendirir.

Üç kademeli sorumluluk: Tartışma bölümünü güçlendirmek için “üç kademeli sorumluluk” kavramını ekleyebilirim: model geliştiricinin sorumluluğu (eğitim verisi izinleri), platformun sorumluluğu (içerik etiketleme) ve son kullanıcının sorumluluğu (kullanım şeffaflığı). Bu üç kademe, bilişim etiği literatüründe sıkça atıfta bulunulan “distributed responsibility” kavramının somut bir uygulaması.

11. Kaynakça

Aktürk, E. (2024). Telif hakkının yapay zekâ ürünleri açısından değerlendirilmesi. Çukurova Üniversitesi Hukuk Araştırmaları Dergisi, (5), 192–235. https://doi.org/10.59399/cuhad.1450690

Cohen, J. (2024). Andersen v. Stability AI: The landmark case unpacking the copyright risks of AI image generators. NYU Journal of Intellectual Property & Entertainment Law. https://jipel.law.nyu.edu/andersen-v-stability-ai-the-landmark-case-unpacking-the-copyright-risks-of-ai-image-generators/

Foerster, H., Behrouzi, S., Rieger, P., Jadliwala, M. ve Sadeghi, A.-R. (2025). LightShed: Defeating perturbation-based image copyright protections. 34th USENIX Security Symposium (USENIX Security 25) içinde (s. 7271–7290). USENIX Association. https://www.usenix.org/conference/usenixsecurity25/presentation/foerster

Mittal, M. ve Gupta, A. (2025). PRAC3 (Privacy, Reputation, Accountability, Consent, Credit, Compensation): Long tailed risks of voice actors in AI data-economy (arXiv:2507.16247). arXiv. https://doi.org/10.48550/arXiv.2507.16247

Özdal, M. A. (2023). Yapay zekâ ile oluşturulan eserlerin telif hakkı ve kişisel verilerin korunması. Hakkari Review, 7(1), 90–110. https://doi.org/10.31457/hr.1249328

Özdal, M. A. (2024). Yapay zekâ ile üretilen görsel ve illüstrasyon eserlerinin telif hakları ve kişisel veri güvenliği. Disiplinlerarası Yenilik Araştırmaları Dergisi, 4(1), 7–31. https://doi.org/10.56723/dyad.1330177

Rosenthol, L. (2022). C2PA: The world’s first industry standard for content provenance. Proceedings of SPIE 12226, Applications of Digital Image Processing XLV, 122260P. https://doi.org/10.1117/12.2632021

Schuhmann, C., Beaumont, R., Vencu, R., Gordon, C., Wightman, R., Cherti, M., Coombes, T., Katta, A., Mullis, C., Wortsman, M., Schramowski, P., Kundurthy, S., Crowson, K., Schmidt, L., Kaczmarczyk, R. ve Jitsev, J. (2022). LAION-5B: An open large-scale dataset for training next generation image-text models. Advances in Neural Information Processing Systems, 35, 25278–25294. https://doi.org/10.48550/arXiv.2210.08402

Shan, S., Cryan, J., Wenger, E., Zheng, H., Hanocka, R. ve Zhao, B. Y. (2023). Glaze: Protecting artists from style mimicry by text-to-image models. 32nd USENIX Security Symposium (USENIX Security 23) içinde (s. 2187–2204). USENIX Association. https://www.usenix.org/conference/usenixsecurity23/presentation/shan

Shan, S., Ding, W., Passananti, J., Wu, S., Zheng, H. ve Zhao, B. Y. (2024). Nightshade: Prompt-specific poisoning attacks on text-to-image generative models. 2024 IEEE Symposium on Security and Privacy (SP) içinde (s. 807–825). IEEE. https://doi.org/10.1109/SP54263.2024.00207


Özgünlük ve Yapay Zeka Kontrol Raporları

Bu çalışmanın özgünlüğü ve yapay zeka kullanımı açısından iki ayrı kontrol gerçekleştirildi. Her iki kontrol de 12 Mayıs 2026 tarihinde yapıldı.

İntihal kontrolü: Çalışmanın özgünlüğü plagiarismdetector.net üzerinden test edildi. Sonuç %98 özgün (unique) olarak raporlandı.

Yapay zeka kontrolü: Metnin yapay zeka tarafından üretilip üretilmediği aidetectorwriter.com üzerinden test edildi. Sonuç %12,90 yapay zeka oranı olarak raporlandı. Bu oran kabul edilebilir sınırın altında.

 


Creative Commons Lisansı
Bu eser Erol Türkkan tarafından üretilmiş olup Creative Commons Atıf-AynıLisanslaPaylaş 4.0 Uluslararası Lisansı ile lisanslanmıştır.