FUTIA
İŞ8 dk okuma

Yapay Zeka ile İçerik Üretiminde Etik: Yapılması ve Yapılmaması Gerekenler

AI içerik üretirken telif hakkı, şeffaflık ve kalite arasındaki dengeyi kurmak zorundasınız. İşte 6 yıllık deneyimimden pratikte işleyen kurallar.

Yapay Zeka ile İçerik Üretiminde Etik: Yapılması ve Yapılmaması Gerekenler
Miraç Eroğlu
15 Mayıs 2026

Geçen ay bir e-ticaret müşterisi bana şunu sordu: "Miraç, Claude ile 500 ürün açıklaması yazdık, müşterilere söylemeli miyiz?" Cevabım netti: "Ürün kaliteliyse, müşteri umursamaz. Ama rakibiniz umursar." Bu soru, yapay zeka ile içerik üretiminin etik boyutunu özetliyor. 2019'dan beri sosyal medya pazarlamacısıyım, son 2 yıldır FUTIA'da yapay zeka otomasyonları kuruyorum. Hollanda'dan çalıştığım için Avrupa GDPR düzenlemeleriyle, Türkiye'deki müşterilerimle çalışırken yerel pazar gerçekleriyle iç içeyim. Bu yazıda teorik etik tartışmaları değil, gerçek projelerde karşılaştığım ikilemler ve çözümlerimi paylaşacağım. Çünkü yapay zeka içerik üretimi artık bir lüks değil, zorunluluk. Ama nasıl kullandığınız, markanızın itibarını ya korur ya da bitirir.

Telif Hakkı ve Orijinallik: Gri Bölgede Gezinmek

Yapay zeka modellerinin eğitim verisi tartışması bitmedi, bitmeyecek de. OpenAI, Anthropic ve diğerleri milyarlarca web sayfasıyla eğitildi. Bu verinin bir kısmı telif korumalı. Hukuki süreçler devam ediyor ama siz bekleyemezsiniz. Pratikte şu kuralları uyguluyorum:

Bire bir kopyalama asla kabul edilemez. Claude'a "X markasının ton of voice'unu taklit et" demek yasal risk. Bunun yerine "profesyonel ama samimi, teknik terimler açıklansın" gibi genel yönergeler kullanıyorum. doktorbul.com projesinde 79.000 doktor profili oluştururken, her profil benzersiz veri noktalarına dayanıyordu: uzmanlık alanı, çalışma saatleri, lokasyon. AI bu verileri yapılandırıyordu, içeriği sıfırdan üretmiyordu.

Önemli bir ayrım: veri dönüşümü vs içerik üretimi. Veri dönüşümünde ham bilgiyi (API'den gelen JSON) okunabilir metne çeviriyorsunuz. İçerik üretiminde ise sıfırdan fikir üretiliyor. İlki düşük riskli, ikincisi yüksek. kamupersonelhaber.com'da günlük ilan.gov.tr ilanlarını çekip özetliyoruz. Bu dönüşüm. Ama bir sağlık blogu için "Diyabet belirtileri" makalesi yazmak üretim, ve burada kaynak göstermek zorundasınız.

Kaynak Gösterme Pratiği

AI'dan aldığınız bilgiyi yayınlamadan önce:

  • Faktörleri doğrulayın (özellikle sağlık, finans, hukuk içeriğinde)
  • Rakamlar varsa kaynağını bulun, linklemeye hazır olun
  • "Araştırmalara göre" demek yetmez, hangi araştırma?
  • Uzman görüşü ekliyorsanız, gerçek kişi olmalı

Ben genelde Claude'a "bu bilgiyi hangi kaynaklardan aldın?" diye sormuyorum çünkü hallüsinasyon riski var. Bunun yerine çıktıyı alıp, kritik iddiaları Google Scholar veya sektör raporlarıyla teyit ediyorum. Evet, bu ekstra 15-20 dakika ama bir yanlış bilgi, tüm domain otoritenizi bitirebilir.

Şeffaflık: Ne Kadar Açık Olmalısınız?

Bu en çok tartışılan konu. "AI ile üretildi" yazmak zorunlu mu? Hukuki olarak çoğu ülkede hayır. Etik olarak? Duruma göre değişiyor.

futia.net'te blog yazılarının sonunda "AI destekli araçlarla üretilmiştir" notu var mı? Hayır. Çünkü ben editörlük yapıyorum, yapıyı kuruyorum, örnekleri seçiyorum. AI bir araç, Microsoft Word gibi. Ama diolivo.com.tr için ürün açıklamalarını tamamen otomatize ettiğimizde, müşteriye "bu metinler AI tarafından üretildi, ürün özellikleri doğru ama ton markanıza uygun mu kontrol edin" dedik. Şeffaflık müşteriye, kullanıcıya değil.

Kurumsal müşteriler için farklı. Bir haber sitesiyseniz ve AI haber özeti yayınlıyorsanız, okuyucunun bunu bilme hakkı var. Çünkü gazetecilik güven üzerine. Ama bir e-ticaret sitesinde "Ürün özellikleri: AI tarafından oluşturulmuştur" yazmak gereksiz. Müşteri ürünün kendisini önemsiyor, açıklamayı kim yazdığını değil.

Benim kuralım: içerik haber değeri taşıyorsa veya uzmanlık gerektiriyorsa (sağlık tavsiyesi, hukuki yorum), AI kullanımını belirtin veya insan editör onayı ekleyin. Ürün açıklaması, meta description, kategori metni gibi "utility content" için gerek yok.

Kullanıcı Deneyimi Odaklı Şeffaflık

Şeffaflık sadece "AI kullandık" demek değil. Şu soruları sorun:

  • Kullanıcı bu içerikten fayda sağlıyor mu?
  • Yanlış bilgi riski var mı?
  • İçerik bir karar vermesine yardımcı olacak mı? (tıbbi, mali, hukuki)
  • Rakipler aynı içeriği üretebilir mi? (orijinallik testi)

italyanmutfagi.com'da 618 tarif otomatik ürettik. Her tarif benzersiz malzeme kombinasyonuna sahip, Schema.org Recipe işaretlemesi var, fotoğraflar stok ama lisanslı. Kullanıcıya "AI tarif üretti" demiyoruz çünkü önemli olan tarifin işe yaraması. Ama editör olarak ben her tarifi test etmedim, bu riski müşteriyle paylaştım.

Kalite Kontrolü: AI Çıktısına Körü Körüne Güvenmeyin

En büyük etik ihlal, kalitesiz içeriği yayınlamak. AI hızlı ama her zaman doğru değil. FUTIA'da her otomasyon için 3 katmanlı kontrol uyguluyoruz:

1. Prompt mühendisliği: Çıktı kalitesi %80 burada belirlenir. "Blog yazısı yaz" demek yerine, "1500 kelime, 5 H2 başlık, her başlıkta somut örnek, liste formatında ipuçları" gibi detaylı talimat.

2. Otomatik validasyon: Çıktıda belirli kelimelerin (örneğin "yapay zeka", "devrim") sıklığını kontrol eden script. Kelime sayısı, başlık sayısı, link varlığı gibi teknik kontroller.

3. İnsan spot check: Her 50 içerikten birini manuel okuyorum. Kalite düşerse, prompt'u revize ediyorum.

memuratamalari.com'da aylık 40.400 organik arama trafiği var. Bu içeriklerin %90'ı Claude Haiku ile üretildi. Ama her içerik gerçek veri kaynağına (resmi gazete, bakanlık sitesi) dayanıyor. AI sadece yapılandırıyor. Eğer kaynak yoksa, içerik üretilmiyor.

Hallüsinasyon ile Başa Çıkma

Yapay zeka modelleri bazen gerçek gibi görünen yanlış bilgi üretir. Özellikle:

  • Spesifik istatistikler ("2023'te %47 arttı" gibi)
  • Tarihler ve olaylar
  • Kişi isimleri ve unvanları
  • Yasal düzenlemeler

Bu alanlarda çift kontrol zorunlu. Ben kritik içeriklerde "kaynak doğrulama" adımı ekliyorum. Claude'a çıktıyı verdikten sonra, "bu metindeki tüm sayısal iddiaları listele ve hangi kaynaktan geldiğini belirt" diye ikinci bir prompt çalıştırıyorum. Kaynak bulamazsa, o cümleyi çıkarıyorum.

SEO ve Manipülasyon Sınırı

Google, AI içeriği cezalandırmıyor. "Yararlı içerik" cezalandırıyor. Ama AI ile spam üretmek çok kolay, bu yüzden etik sınırlar önemli.

Yapılmaması gerekenler:

  • Anahtar kelime doldurma amacıyla AI kullanmak ("en iyi X, en ucuz X, X nasıl alınır" gibi 50 varyasyon)
  • Rakip içeriği AI ile paraphrase edip yayınlamak
  • Sadece Google için, kullanıcı için değil içerik üretmek
  • Backlink almak için AI ile yorum veya forum spam'i

diolivo.com.tr'de 6 ayda %340 trafik artışı sağladık. Nasıl? CartBounty sepet kurtarma otomasyonu + kullanıcı odaklı blog içeriği. Blog yazıları AI ile taslak oluşturuldu ama her biri gerçek müşteri sorusuna cevap veriyordu. "Zeytinyağı nasıl saklanır?", "Soğuk sıkım ne demek?" gibi. Anahtar kelime araştırması yaptık ama içerik kullanıcı için yazıldı.

Programatik SEO Etiği

Programatik SEO, şablon + veri ile binlerce sayfa üretmek demek. doktorbul.com buna mükemmel örnek: 79.000 doktor profili, her biri benzersiz. Etik mi? Evet, çünkü:

  • Her sayfa gerçek veriyi yansıtıyor
  • Kullanıcı doktor arıyor, doktor buluyor
  • Alternatif, bu bilgiye ulaşamamak olurdu

Etik olmayan programatik SEO: "İstanbul'da Oto Yedek Parça", "Ankara'da Oto Yedek Parça" diye 81 il için aynı metni çoğaltmak. Gerçek bilgi yok, sadece trafik tuzağı.

Kuralım: her programatik sayfa, benzersiz ve doğrulanabilir veriyle desteklenmeli. Eğer sadece şehir adı değişiyorsa, bu spam.

Marka Sesi ve Otantiklik

AI, markanızın sesini taklit edebilir ama ruhunu yakalayamaz. En büyük etik risk, jenerik içerik yığını oluşturmak.

futia.net blog yazılarımda bilinçli olarak kişisel deneyimler ekliyorum. "Geçen ay bir müşteriyle..." veya "Hollanda'dan çalışırken fark ettim ki..." gibi. AI bunları üretemez çünkü benim yaşamadım. Bu cümleler otantiklik katıyor.

Müşterilerime şunu öneriyorum: AI ile taslak oluşturun, sonra %20'sini kendiniz yazın. O %20, giriş paragrafı, kişisel anekdot veya sonuç bölümü olabilir. Bu, içeriği "sizin" yapan kısım.

Ses Tutarlılığı

AI her seferinde farklı ton üretebilir. Bunu önlemek için:

  • Marka ses rehberi oluşturun ("samimi ama profesyonel", "teknik ama anlaşılır" gibi)
  • Prompt'a örnek cümleler ekleyin ("şu tarzda yaz: ...")
  • Yasak kelimeler listesi ("devrim", "çığır açan", "yeni nesil" gibi pazarlama klişeleri)
  • Tutarlılık için aynı AI modelini kullanın (Claude Sonnet 3.5 gibi)

Ben FUTIA blog yazılarında "devrim", "next-gen", "10x" gibi kelimeleri yasakladım. Bunun yerine spesifik rakamlar ve gerçek vakalar kullanıyorum. AI bunu öğrendi çünkü her prompt'ta "bu kelimeleri kullanma" direktifi var.

Veri Gizliliği ve GDPR Uyumu

AI'a veri beslerken dikkatli olun. Özellikle müşteri verileri, kişisel bilgiler, ticari sırlar. Anthropic ve OpenAI, API üzerinden gönderilen verileri model eğitiminde kullanmıyor (iddia ediyorlar) ama yine de risk var.

FUTIA projelerinde:

  • Kişisel veri içeren içerik üretiminde, verileri anonimleştiriyoruz
  • Müşteri adı, e-posta, telefon gibi bilgiler AI'a gönderilmiyor
  • GDPR uyumu için veri işleme sözleşmeleri imzalıyoruz
  • Hassas sektörlerde (sağlık, finans) on-premise AI çözümleri öneriyoruz

doktorbul.com'da doktor isimleri ve uzmanlıkları halka açık veri, sorun yok. Ama bir danışmanlık firması için müşteri vaka çalışmaları yazarken, tüm tanımlayıcı bilgileri kaldırıyoruz.

AI Araç Seçimi

Her AI aracının veri politikası farklı:

  • ChatGPT Plus: Sohbet geçmişi saklanıyor, opt-out gerekli
  • Claude Pro: Varsayılan olarak eğitimde kullanılmıyor
  • API'ler (OpenAI, Anthropic): Model eğitiminde kullanılmıyor (sözleşmeye göre)
  • Açık kaynak modeller (Llama, Mistral): Kendi sunucunuzda çalışır, veri paylaşımı yok

Kurumsal projeler için API veya açık kaynak öneriyorum. Kişisel projeler için Plus abonelikler yeterli ama hassas veri paylaşmayın.

İstihdam ve Sosyal Sorumluluk

"AI, içerik yazarlarının işini elinden mi alıyor?" sorusu etik tartışmanın merkezinde. Kısa cevap: evet, bazı işleri alıyor. Ama yeni iş alanları da yaratıyor.

Ben 6 yıl sosyal medya yöneticiliği yaptım. Artık o işi yapmıyorum çünkü AI daha hızlı post üretiyor. Ama şimdi AI otomasyon uzmanıyım, bu iş 2 yıl önce yoktu. Dönüşüm acı veriyor ama kaçınılmaz.

Etik sorumluluk, AI'ı nasıl kullandığınızla ilgili:

  • Çalışanlarınızı AI ile değiştiriyorsanız, onlara yeni beceriler kazandırma fırsatı sunun
  • "AI editörü", "prompt mühendisi" gibi yeni roller oluşturun
  • Freelance yazarlarla çalışıyorsanız, şeffaf olun: "artık AI taslak üretiyor, sen editörlük yapacaksın"

FUTIA'da tek çalışanım benim ama müşterilerime şunu söylüyorum: AI, junior işleri ortadan kaldırır. Orta seviye uzmanlık daha değerli hale gelir. Yani içerik ekibinizi küçültmeyin, yeniden konumlandırın.

Gerçek Bir Senaryo: Etik İkilem

Geçen yıl bir müşteri, rakibinin blog içeriklerini AI ile yeniden yazıp kendi sitesinde yayınlamak istedi. "Paraphrase edersek sorun olmaz, değil mi?" dedi. Hayır, olmaz. Şunu anlattım:

1. Telif ihlali: Paraphrase, türev eser sayılır. Orijinal fikir rakibinse, hukuki risk var. 2. SEO cezası: Google, duplicate content'i tespit eder. Paraphrase bile olsa, benzerlik %70+ ise risk. 3. Marka itibarı: Rakibiniz fark ederse, sosyal medyada ifşa edebilir. İtibar kaybı, hukuki riskten büyük.

Alternatif önerdim: rakibin içeriklerini analiz et, hangi konuları kapsıyor bul, sonra aynı konularda ama farklı açıdan içerik üret. AI'a "X konusunda Y açısından yaz, Z kaynağı kullan" de. Müşteri kabul etti, 3 ayda orijinal 50 içerik ürettik. Trafik %180 arttı.

Etik çizgiler bazen bulanık ama temel prensip: başkasının emeğini çalmayın. AI, hırsızlığı kolaylaştırır ama meşrulaştırmaz.

Gelecek: Düzenlemeler Geliyor

AB, AI Act ile yapay zeka düzenlemelerini başlattı. ABD'de eyalet bazlı yasalar tartışılıyor. Türkiye'de henüz net bir çerçeve yok ama gelecek. Şimdiden hazırlıklı olun:

  • AI kullanım politikanızı yazılı hale getirin
  • Hangi süreçlerde AI kullandığınızı dokümante edin
  • Veri işleme sözleşmelerini güncelleyin
  • Müşteri/kullanıcı bilgilendirmesi için şablon hazırlayın

FUTIA olarak, her müşteriye "AI Kullanım Raporu" sunuyoruz. Hangi modelleri kullandık, hangi verileri işledik, çıktılar nasıl doğrulandı gibi. Bu, ileride denetim olursa işe yarayacak.

Yapay zeka ile içerik üretimi, etik kuralları kendiniz belirlemediğiniz sürece risk taşır. Benim kurallarım 2 yıllık deneyimden geliyor, sizinki farklı olabilir. Önemli olan, bilinçli kararlar almak. AI bir araç, nasıl kullandığınız sizin sorumluluğunuz. Eğer kendi projelerinizde etik sınırları belirlemekte zorlanıyorsanız veya otomasyon kurarken hukuki riskleri minimize etmek istiyorsanız, benimle konuşabilirsiniz. WhatsApp: +90 532 491 17 05 veya info@futia.net üzerinden ulaşın. FUTIA olarak sadece teknik çözüm değil, etik danışmanlık da sunuyoruz.

Sıkça Sorulanlar

AI ile üretilen içeriklerde 'yapay zeka kullanıldı' yazmak zorunlu mu?

Hukuki olarak Türkiye'de zorunluluk yok. Ancak içerik türüne göre değişir: haber, sağlık tavsiyesi veya uzmanlık gerektiren konularda şeffaflık önerilir çünkü kullanıcı güveni önemli. Ürün açıklaması, kategori metni gibi 'utility content' için gerek yok. Etik kural: içerik bir karar vermeye yardımcı olacaksa (tıbbi, mali, hukuki), AI kullanımını belirtin veya insan editör onayı ekleyin. AB'de AI Act ile düzenlemeler geliyor, şimdiden politika oluşturmak akıllıca.

Rakibimin içeriğini AI ile paraphrase edip kullanabilir miyim?

Hayır, etik ve hukuki olarak sorunlu. Paraphrase, türev eser sayılır ve orijinal fikir rakibinse telif ihlali riski var. Google, %70+ benzerlik tespit ederse duplicate content cezası verebilir. Ayrıca rakibiniz fark ederse marka itibarınız zarar görür. Alternatif: rakibin hangi konuları kapsadığını analiz edin, aynı konularda farklı açıdan, farklı kaynaklar kullanarak orijinal içerik üretin. AI'ı ilham kaynağı olarak kullanın, kopyalama aracı olarak değil.

AI hallüsinasyon yapıyorsa, içeriği nasıl doğrularım?

Üç katmanlı kontrol uygulayın: 1) Kritik iddiaları (istatistikler, tarihler, yasal bilgiler) Google Scholar veya resmi kaynaklarla teyit edin. 2) AI'a 'bu metindeki sayısal iddiaları listele ve kaynak belirt' diye ikinci prompt gönderin, kaynak bulamazsa cümleyi çıkarın. 3) Özellikle sağlık, finans, hukuk gibi hassas alanlarda mutlaka uzman incelemesi yaptırın. FUTIA projelerinde her 50 içerikten birini manuel okuyorum, kalite düşerse prompt'u revize ediyorum. Otomasyon hız kazandırır ama kalite kontrolünü ortadan kaldırmaz.

AI içerik üretimi, Google SEO'da ceza alır mı?

Google, AI içeriği değil, 'yararsız içeriği' cezalandırıyor. Eğer içerik kullanıcı için değer üretiyorsa, AI ile mi insan ile mi yazıldığı önemsiz. Sorun, AI ile spam üretmek: anahtar kelime doldurma, 81 il için aynı metni çoğaltma, sadece trafik için içerik. Etik programatik SEO şöyle: her sayfa benzersiz, doğrulanabilir veriyle desteklenmeli. Örneğin doktorbul.com'da 79.000 profil var, her biri gerçek doktor verisi. Kural: eğer sadece şehir adı değişiyorsa spam, veri benzersizse meşru.

Müşteri verilerini AI'a göndermek GDPR açısından sorun yaratır mı?

Evet, kişisel veri içeren bilgileri AI'a göndermek GDPR ihlali olabilir. OpenAI ve Anthropic, API verilerini model eğitiminde kullanmıyor (iddia ediyorlar) ama yine de risk var. Çözüm: 1) Kişisel verileri anonimleştirin (isim, e-posta, telefon kaldırın). 2) Hassas sektörlerde (sağlık, finans) on-premise AI çözümleri kullanın. 3) Veri işleme sözleşmeleri imzalayın. 4) API kullanıyorsanız, sağlayıcının veri politikasını inceleyin. FUTIA'da müşteri projelerinde kişisel veri asla AI'a gönderilmiyor, sadece anonimleştirilmiş veya halka açık verilerle çalışıyoruz.

YAZAR HAKKINDA
Miraç Eroğlu

Hacettepe mezunu, 6 yıldır sosyal medya, 2 yıldır AI otomasyon.

Daha fazla bilgi →

Bu yazıdaki tekniklerden birini uygulamak ister misiniz? Kısa bir form doldurun, 48 saat içinde ücretsiz ön inceleme raporu mailinize düşsün.