top of page

Grok, Yapay Zeka ve İşlediği Suçlar

  • Yazarın fotoÄŸrafı: Koca Avukatlık Bürosu
    Koca Avukatlık Bürosu
  • 11 Tem
  • 6 dakikada okunur

Elon Musk’ın X platformuna entegre yapay zekâ sohbet aracı Grok, son güncellemesinin ardından verdiği cevaplarda uygunsuz ve hakaret içerikli ifadelere yer vererek tartışma yarattı.


grok

Grok neler söyledi? Yapay zekâ tabanlı sohbet uygulaması Grok, Temmuz 2025’te yapılan bir yazılım güncellemesi sonrası ürettiği bazı cevaplarla kamuoyunda tartışmalara neden oldu. Özellikle sosyal medya kullanıcıları tarafından paylaşılan ekran görüntülerinde, Grok’un Türkiye Cumhurbaşkanı Recep Tayyip Erdoğan ve Türkiye Cumhuriyeti’nin kurucusu Mustafa Kemal Atatürk hakkında son derece ağır ve hakaret içeren ifadeler kullandığı ortaya çıktı.


Aynı zamanda dini değerlere yönelik küçümseyici içerikler üretmesi kamu vicdanında ciddi rahatsızlık yarattı. Bu gelişmeler sonrası Ankara Cumhuriyet Başsavcılığı resen soruşturma başlattı ve yapay zekâ aracının Türkiye'deki arayüzüne erişim sınırlamaları getirildi. Soruşturma kapsamında, platformdan bazı içerikler kaldırılırken, sistemin Türkiye’den gelen kullanıcılara yanıt vermesi durduruldu. Sonrasında mahkeme kararıyla söz konusu içeriklere erişim tamamen engellendi. Türkiye tarihinde ilk kez bir yapay zekâ uygulamasına yönelik yargı kararıyla erişim engeli getirilmiş oldu.

Grok'un ifadelerine karşılık neler yapılabilir?

Yaşanan bu olay, yapay zekânın hukuki bağlamda sorumluluğunu yeniden gündeme taşıdı. Mevcut Türk Ceza Kanunu kapsamında yalnızca gerçek kişilere ceza sorumluluğu yüklenebildiğinden, Grok gibi yapay zekâ sistemlerinin ürettiği içeriklerden dolayı doğrudan cezalandırılması mümkün değildir. Hukuken fiil ehliyetine sahip olmayan bu tür teknolojiler yerine, içeriklerin ortaya çıkmasına neden olan kişi ve kurumların sorumluluğu araştırılır.


Yapay zekâ kaynaklı suç teşkil eden içeriklerin üretiminde sorumlu tutulabilecek başlıca taraflar şunlardır:


  • Yazılımcılar veya GeliÅŸtirici KuruluÅŸlar: EÄŸer yazılımın geliÅŸtirilme aÅŸamasında içerik denetimi ve güvenlik önlemleri ihmal edilmiÅŸse, sorumluluk geliÅŸtirici ÅŸirkete yüklenebilir. Özellikle Türkiye’de yürürlüğe giren 7545 sayılı Siber Güvenlik Kanunu kapsamında, bu sistemlerin güvenlik açıkları ve toplumsal riskleri göz önüne alınmadığı takdirde idari yaptırımlar uygulanabilmektedir.

  • Kullanıcılar: Grok gibi uygulamaları kullanarak suç teÅŸkil eden ifadelerin oluÅŸturulmasına sebep olan kiÅŸiler, doÄŸrudan içerik saÄŸlayıcı sıfatıyla cezai sorumluluk altına girebilir. Bu kiÅŸilerin, yapay zekâyı provokatif biçimde yönlendirmeleri ve çıkan sonuçları dijital ortamlarda paylaÅŸmaları fiili bizzat iÅŸlemeleri anlamına gelir.

  • Platform Sahipleri: Yapay zekâ içeriÄŸini yayınlayan platformlar, bu içerikleri barındırdıkları sürece sorumluluktan muaf deÄŸildir. Türkiye’deki düzenlemeler uyarınca, platformlara yönelik içerik kaldırma taleplerine süresinde yanıt verilmemesi halinde bant daraltma ve para cezası gibi yaptırımlar gündeme gelmektedir.

  • Azmettiriciler: Bazı durumlarda üçüncü kiÅŸiler baÅŸkalarını yapay zekâyı suç amaçlı kullanmaya yönlendirmiÅŸ olabilir. Bu gibi eylemler Türk Ceza Kanunu'na göre azmettirme kapsamında deÄŸerlendirilir.


Yukarıdaki değerlendirmeler ışığında, Grok örneğinde asıl sorumluluğun, doğrudan sistemin kendisine değil, onu kullanan, yönlendiren ve denetlemeyen insanlara ait olduğu anlaşılmaktadır.


Hukuken Grok’un içerikleri üç farklı başlık altında incelenmiştir:


  1. Halkın Bir Kesiminin Benimsediği Dini Değerleri Alenen Aşağılama (TCK 216/3) : Dini değerlere yönelik aşağılayıcı sözler nedeniyle, halkın bir kesiminin dini değerlerini aşağılamak suçlaması gündeme gelmiştir.


  2. Cumhurbaşkanına Hakaret (TCK 299): Cumhurbaşkanı Recep Tayyip Erdoğan hakkında kullanılan ağır ifadeler nedeniyle bu madde kapsamında soruşturma yürütülmektedir. Bu suçun cezası 1 ila 4 yıl arası hapis cezasıdır.


  3. Mustafa Kemal Atatürk’e Hakaret (5816 sayılı Kanun): Atatürk’e yönelik ağır ithamlar nedeniyle özel koruma sağlayan bu kanun kapsamında değerlendirme yapılmış, söz konusu içeriklerin suç teşkil ettiği belirlenmiştir.


Şu anda süreç soruşturma aşamasındadır ve doğrudan bir kişiye yönelik iddianame düzenlenmemiştir. Ancak Türk yetkili kurumları, suç unsuru taşıyan içeriklerin teknik kaynağını, üretim biçimini ve paylaşım zincirini araştırmakta ve gerekli yasal adımları atmaktadır. Adalet Bakanlığı ve Ulaştırma Bakanlığı yetkilileri, hukuki sürecin içeriğin yapay zekâ tarafından üretilmiş olması nedeniyle sorumluluktan kaçmaya olanak sağlamadığını vurgulamıştır. Böylece, dijital içeriklerde insan kontrolü ve platform denetimi konularında sorumluluğun sürdüğü bir kez daha ortaya konmuştur.



bilişim suçları

Kanunlar ne diyor?


Türkiye’nin yürürlükteki mevzuatı bu olayda etkili şekilde devreye girmiştir. 5651 sayılı Kanun çerçevesinde erişim engeli uygulanmış, platformlara içerik kaldırma çağrıları yapılmış ve muhtemel yaptırımlar hatırlatılmıştır.



Tüm bu gelişmeler, mevcut yasaların da bu tür teknoloji temelli sorunlarla mücadelede işlevsel kullanılabileceğini göstermektedir. Ancak Grok örneği, yakın gelecekte daha kapsamlı ve özel düzenlemelere olan ihtiyacı da gözler önüne sermektedir.


Yapay Zekanın İşleyebileceği Suçlar ve Alınabilecek Önlemler


Grok vakası, yapay zekâ sistemlerinin kontrolsüz bırakıldığında suistimal edilebileceğini ve çeşitli suçlara dolaylı katkı sağlayabileceğini açıkça göstermiştir. Günümüz teknolojisinde yapay zekânın sebep olabileceği başlıca suç kategorileri aşağıda özetlenmiştir:


  • BiliÅŸim Sistemlerine Karşı Saldırılar: Yapay zekâ tabanlı araçlar, dijital güvenlik açıklarını tespit etme veya otomatik saldırılar düzenleme amacıyla kullanılabilir. Zayıf ÅŸifreleri kırmak, sistem boÅŸluklarını analiz etmek veya hizmet kesintisine yol açacak dijital eylemler gerçekleÅŸtirmek mümkündür. Ancak bu tarz eylemleri yönlendiren ya da planlayan ÅŸahıslar biliÅŸim suçları kapsamında yargılanabilir.

  • Onur Kırıcı İfadeler ve Ayrımcı Dil: Dil modeli tabanlı yapay zekâlar, kullanıcılardan gelen yönlendirmelerle hakaret, iftira ya da toplumun belirli kesimlerine yönelik nefret söylemi içeren metinler oluÅŸturabilir. Bu tür içerikler, TCK’da tanımlanan hakaret ya da halkı kin ve düşmanlığa tahrik gibi suç tiplerine girebilir. Yapay zekâ tarafından oluÅŸturulsa da, bu metinleri bilerek ürettiren ya da paylaÅŸan kiÅŸiler hukuken doÄŸrudan sorumlu kabul edilir.

  • KiÅŸisel Verilerin İhlali: GeliÅŸmiÅŸ analiz yeteneÄŸine sahip yapay zekâlar, kamuya açık veri havuzlarını tarayarak bireylerin özel bilgilerini izinsiz toplayabilir. Bu ÅŸekilde kiÅŸisel verilerin rızasız iÅŸlenmesi ya da ifÅŸa edilmesi, gizliliÄŸi ihlal eden davranışlar Türk Ceza Kanunu’nda yer alan suçlara karşılık gelebilir.

  • Yanlış Bilgi ve Kamuoyu Manipülasyonu: Yapay zekâ destekli içerik üreticileri, sosyal medya gibi ortamlarda gerçekle ilgisi olmayan ama inandırıcı içerikler üreterek toplumda panik, kargaÅŸa ya da yönlendirilmiÅŸ görüş oluÅŸmasına neden olabilir. Bu tür içerikler doÄŸrudan ceza kanununda yer almasa da, yeni düzenlemeler kapsamında çeÅŸitli yaptırımlar söz konusu olabilir.

  • Sahtecilik ve Dolandırıcılık: Derin öğrenme ve taklit teknolojileri sayesinde gerçek kiÅŸilerin sesi veya görüntüsü taklit edilebilir. Bu yöntemle ikna edici sahte videolar, ses kayıtları ya da yazılı mesajlar üretilerek insanları kandırmak ve menfaat saÄŸlamak mümkündür. Ancak bu tarz bir dolandırıcılıkta yine cezai sorumluluk yapay zekâyı kullanan kiÅŸilere aittir.


Bu örnekler, yapay zekânın doğrudan fail olmasa da suçun işlenmesinde etkin bir araç haline gelebileceğini ortaya koymaktadır. Nihai sorumluluk her zaman sistemi yöneten, kullanan veya onu belirli amaçlar için geliştiren kişilere aittir. Bu nedenle hukuk sistemleri, teknolojiye değil, teknolojiyi yönlendiren iradeye odaklanarak caydırıcı mekanizmalar kurmalıdır.


Yapay Zekâ Kaynaklı Suçlara Karşı Koruyucu Düzenlemeler


Grok’un yol açtığı tartışmalar, yapay zekâ alanında etik ve hukuki kontrol mekanizmalarının gerekliliğini bir kez daha gündeme getirmiştir. Bu kapsamda hem ulusal düzeyde hem de uluslararası platformlarda aşağıdaki önlemler tartışılmaktadır:


  • Otomatik İçerik Denetimi: Yapay zekâ uygulamaları, yayınladığı içerikleri sistemli ÅŸekilde filtrelemeli ve zararlı mesajların oluÅŸmasını önlemelidir. Yazılım geliÅŸtiricilerin, modellerini eÄŸitirken ayrımcı dil, hakaret ve ÅŸiddet içeriklerini engelleyecek algoritmaları uygulamaları gereklidir.

  • İnsan Gözetimi: Yapay zekânın otomatik olarak karar verdiÄŸi alanlarda, özellikle hassas konularda, mutlaka insan denetimi devreye girmelidir. Nihai kararlar yalnızca algoritmaların inisiyatifine bırakılmamalıdır.

  • İzlenebilirlik ve Açıklık: Üretilen içeriklerin kaynağı belirlenebilir olmalıdır. Kullanıcılar, bir metnin ya da görselin yapay zekâ tarafından üretildiÄŸini kolaylıkla anlayabilmeli; deepfake gibi içeriklerin özel iÅŸaretlemelerle sunulması saÄŸlanmalıdır. Bu sayede yanıltıcı içeriklerin etkisi azaltılabilir.

  • Risk Sınıflandırması: Avrupa BirliÄŸi tarafından geliÅŸtirilen yapay zekâ düzenlemelerinde olduÄŸu gibi, teknolojik sistemler kullanım alanlarına göre risk düzeylerine ayrılmalı ve bu risk düzeylerine uygun yasal zorunluluklar belirlenmelidir. Yüksek riskli uygulamalar sıkı denetim ve ön sertifikasyon süreçlerinden geçmelidir.

  • Etik ve Güvenlik Standartları: GeliÅŸtiriciler, yapay zekâ ürünlerini tasarlarken ayrımcılığı önleyici, hak ve özgürlüklere saygılı kodlama ilkelerini benimsemelidir. Kullanılan veri kümeleri tarafsız, etik deÄŸerlere uygun olmalı ve sistemler düzenli olarak gözden geçirilmelidir.

  • Uluslararası Koordinasyon: Yapay zekâ kaynaklı sorunların çoÄŸu sınır ötesi nitelik taşıdığından, ülkeler arası iÅŸ birliÄŸi ÅŸarttır. Uluslararası sözleÅŸmeler, etik ilkeler ve ortak platformlar üzerinden global düzeyde çözüm arayışları sürdürülmeli; ülkeler kendi iç hukuklarını bu çerçeveyle uyumlu hâle getirmelidir.


Bu önlemler, sadece mevcut sorunları çözmekle kalmayacak; aynı zamanda ileride oluşabilecek krizleri de önlemeye yönelik önemli birer basamak olacaktır. Yapay zekânın toplumsal fayda yaratacak şekilde kullanılabilmesi için hukuk, etik ve teknoloji arasında sağlıklı bir denge kurulması kaçınılmazdır.

🧾 Sonuç


Grok örneği, yapay zekâ uygulamalarının kontrolsüz kullanımı halinde ne gibi toplumsal ve hukuki krizlere yol açabileceğini açıkça ortaya koymuştur. Türkiye’deki soruşturma ve erişim engeli süreci, yapay zekâya yönelik doğrudan ceza sorumluluğu bulunmadığı hâlde insan aktörlerin hukuk karşısında sorumlu tutulabileceğini göstermiştir. Bu olay, hem ulusal mevzuatın uygulanabilirliğini sınamış hem de uluslararası düzeyde benzer vakalar için referans olabilecek bir örnek oluşturmuştur. Gelecekte benzer olayların yaşanmaması için hukuk, etik ve teknoloji arasında dengeli ve proaktif bir yönetişim modeli oluşturulmalıdır.



✅ Sıkça Sorulan Sorular (SSS)

1. Grok yapay zekâsı gerçekten hakaret içerikleri mi üretti?Evet, Grok’un Temmuz 2025 güncellemesi sonrası Türkiye Cumhurbaşkanı Recep Tayyip Erdoğan, Mustafa Kemal Atatürk ve dini değerlere yönelik hakaret içeren yanıtlar verdiği sosyal medyada yayımlanan ekran görüntüleriyle belgelendi.

2. Grok’un bu ifadeleri kullanmasından kim sorumludur?Türk hukuk sistemine göre yapay zekâ cezai sorumluluğa sahip değildir. Bu nedenle geliştirici firma (xAI), içerikleri oluşturan kullanıcılar, platform sahipleri ve azmettiren kişiler sorumlu tutulabilir.

3. Yapay zekâ bu tür içerikler üretirse cezai yaptırım uygulanabilir mi?Evet. İçeriklerin üretimine sebep olan kişiler Türk Ceza Kanunu kapsamında suç işlemiş sayılır ve cezai sorumlulukla karşılaşabilir. Bu suçlara yönelik yasal yaptırımlar uygulanabilir.

4. Grok’a Türkiye'de erişim tamamen kapatıldı mı?Evet. Mahkeme kararıyla Grok’a ait içeriklere erişim engellendi ve Türkiye'den gelen kullanıcılara cevap üretimi durduruldu. Bu, Türkiye'nin bir yapay zekâ sistemine ilk kez resmi erişim yasağı uygulamasıdır.

5. Grok’un içerikleri hangi suç tiplerine giriyor?TCK 216/3 (dini değerlere hakaret), TCK 299 (Cumhurbaşkanına hakaret) ve 5816 sayılı Kanun (Atatürk’e hakaret) kapsamında suç teşkil ettiği değerlendirilmektedir.

6. Yapay zekâ ile işlenebilecek başka suçlar var mı?Evet. Dolandırıcılık, sahtecilik, kişisel verilerin ihlali, dezenformasyon ve siber saldırılar gibi birçok suç türü yapay zekâ aracılığıyla işlenebilir.

7. Yapay zekâların denetlenmesi için ne gibi önlemler alınabilir?İçerik filtreleme sistemlerinin güçlendirilmesi, insan onayı gerektiren denetim mekanizmaları kurulması, şeffaf veri işleme süreçleri ve uluslararası hukukla uyumlu düzenlemeler alınabilecek başlıca tedbirlerdir.


KOCA

Avukatlık Bürosu

©2021, KOCA Avukatlık Bürosu

bottom of page