Karşılaştırmalı Hukukta Dijital Ortamda Küçüklerin Korunması » Ongur Partners
Karşılaştırmalı Hukukta Dijital Ortamda Küçüklerin Korunması

Karşılaştırmalı Hukukta Dijital Ortamda Küçüklerin Korunması

İnternet ve dijital teknolojilerin gündelik yaşamın ayrılmaz bir parçası haline gelmesi, beraberinde ciddi riskleri de getirmiştir. Özellikle gelişim çağındaki küçüklerin; siber zorbalık, zararlı içerikler, veri madenciliği ve cinsel istismar gibi tehditlere karşı korunması modern hukuk sistemlerinin en öncelikli gündem maddelerinden biridir. Dijital ortamda küçüklerin korunması, sadece ulusal bir mesele değil, sınır aşan niteliği nedeniyle karşılaştırmalı hukukun temel çalışma alanlarından biridir.

 

Avrupa Birliği: Dijital Hizmetler Yasası (DSA) ve GDPR

Avrupa Birliği, dijital alanda çocukların korunması konusunda en katı ve kapsamlı düzenlemelere sahip bölge olarak öne çıkmaktadır. Genel Veri Koruma Yönetmeliği (GDPR), çocukların kişisel verilerinin işlenmesi için “rıza yaşını” belirlemiş ve platformlara özel bir şeffaflık yükümlülüğü getirmiştir.

Ancak asıl devrim niteliğindeki adım Dijital Hizmetler Yasası (DSA) ile atılmıştır. DSA çerçevesinde:

  • Çocukları hedef alan reklam algoritmaları yasaklanmıştır.

  • Çevrimiçi platformların, arayüz tasarımlarında çocukları manipüle eden “karanlık tasarımlardan” kaçınması zorunlu tutulmuştur.

  • Sistemik risk değerlendirmesi yapılarak, platformların çocukların ruh sağlığı üzerindeki olumsuz etkileri minimize etmesi beklenmektedir.

Amerika Birleşik Devletleri: COPPA ve Yeni Eyalet Yasaları

ABD’de federal düzeydeki temel düzenleme, 1998 tarihli Çocukların Çevrimiçi Gizliliğini Koruma Yasası (COPPA)’dır. COPPA, 13 yaşın altındaki çocuklardan veri toplanmasını ebeveyn iznine tabi tutar. Ancak bu yasanın günümüzün karmaşık algoritma dünyasında yetersiz kalması, eyaletleri harekete geçirmiştir.

Özellikle California Tasarımla Güvenlik Yasası (California Age-Appropriate Design Code Act), Birleşik Krallık modelinden esinlenerek “varsayılan olarak yüksek gizlilik” ilkesini benimsemiştir. Bu yaklaşım, dijital ürünlerin henüz tasarım aşamasındayken çocuğun yüksek yararını gözetmesini zorunlu kılar.

Türkiye’de internet alanına ilişkin temel düzenleme olan 5651 sayılı İnternet Ortamında Yapılan Yayınların Düzenlenmesi ve Bu Yayınlar Yoluyla İşlenen Suçlarla Mücadele Edilmesi Hakkında Kanun’da[1] kapsamlı değişiklikler öngören yeni bir kanun taslağı kamuoyuna yansımıştır. Taslağın en dikkat çekici düzenlemesi, 15 yaş altındaki çocuklara sosyal medya kullanım yasağı getirilmesidir. Buna göre Kanun’un Ek 4’üncü maddesinin 7’nci fıkrasına, “Sosyal ağ sağlayıcı, on beş yaşını doldurmamış çocuklara hizmet sunamaz ve bu hizmetin sunulmaması konusunda yaş doğrulama dahil gerekli tedbirleri almakla yükümlüdür” hükmünün eklenmesi planlanmaktadır. Böylece sosyal ağ sağlayıcılarına, 15 yaşını doldurmamış çocuklara hizmet sunmama ve bu yasağın uygulanmasını sağlamak üzere yaş doğrulama mekanizmaları kurma yükümlülüğü getirilmektedir. Taslak ayrıca, ebeveynlerin çocukların sosyal ağ kullanım süresini denetleyebilmesini teminen platformlara “ebeveyn kontrol araçları” oluşturma zorunluluğu da yüklemektedir. Bu düzenleme, çocukların çevrimiçi ortamda korunması ile temel hak ve özgürlüklerin sınırlandırılması arasındaki anayasal denge tartışmasını yeniden gündeme taşımaktadır. Nitekim İtalya’da da benzer bir şekilde 1136 sayılı kanun teklifi ile 15 yaşını doldurmamış çocukların sosyal medya kullanımının kısıtlanması gündemdedir. Birleşik Krallık’ta ise Online Safety Act[2] ile dijital alandaki risk analizi ile çocukların korunması hedeflenmiştir.

Türkiye’deki Mevcut Durum ve 5651 Sayılı Kanun

Türkiye’de dijital ortamda çocukların korunması, temelini Anayasa’nın 41. maddesinden alan geniş bir koruma kalkanına sahiptir. 5651 sayılı İnternet Ortamında Yapılan Yayınların Düzenlenmesi Kanunu, çocukların cinsel istismarı ve müstehcenlik gibi suç teşkil eden içeriklere erişimin engellenmesi konusunda BTK’ya geniş yetkiler tanımaktadır.

Ayrıca, Kişisel Verilerin Korunması Kanunu (KVKK) kapsamında çocukların verileri “hassas” bir yaklaşımla ele alınmakta, ebeveyn rızası mekanizması işletilmektedir. Türkiye, son yıllarda sosyal ağ sağlayıcılarına getirdiği temsilcilik ve veri yerelleştirme yükümlülükleri ile çocuklara yönelik siber riskleri yerinde denetlemeyi hedeflemektedir.

 

İlgili Sınırlandırmanın Temel Hak ve Hürriyetlerin Sınırlandırılması ile İlgili Anayasa’nın 13. Maddesine Uygunluk Açısından Değerlendirilmesi

1982 Anayasası’nın 17-74. maddeleri arasında birçok temel hak ve hürriyet düzenlenmiştir. İnsan fiili ne kadar çeşitliyse o kadar da serbest hareket etme gücü, yani düzenlenen bu hakları icra etme özgürlüğü bulunmaktadır. Ancak bu icra etme özgürlüğü insanlara sınırsız bir hareket alanı vermemektedir. Nitekim, temel hak ve hürriyetlerin sınırlanması başlıklı Türk Anayasası’nın 13. Maddesi uyarınca “Temel hak ve hürriyetler, özlerine dokunulmaksızın yalnızca Anayasanın ilgili maddelerinde belirtilen sebeplere bağlı olarak ve ancak kanunla sınırlanabilir. Bu sınırlamalar, Anayasanın sözüne ve ruhuna, demokratik toplum düzeninin ve lâik Cumhuriyetin gereklerine ve ölçülülük ilkesine aykırı olamaz”. İlgili maddeden de anlaşılacağı üzere temel hak ve hürriyetlerin sınırlandırılması;

  1. Sınırlama kanunla olmalıdır
  2. Sınırlama Anayasa’nın ilgili maddesinde belirtilen sebeplere bağlı olmalıdır
  3. Sınırlama Anayasa’nın sözüne ve ruhuna uygun olmalıdır
  4. Sınırlama demokratik toplum düzeninin gereklerine aykırı olmamalıdır
  5. Sınırlama temel hak ve hürriyetlerin özlerine dokunmamalıdır
  6. Sınırlama laik Cumhuriyetin gereklerine aykırı olmamalıdır
  7. Sınırlama ölçülülük ilkesine aykırı olmamalıdır.[3]

İlk olarakhak ve özgürlüklerin ancak kanunla sınırlandırılabileceğini ifade eden kanunilik ilkesi bakımından değerlendirme yapıldığında, düzenlemenin 5651 sayılı Kanun’da değişiklik yapılarak gerçekleştirilmesi öngörüldüğünden kanunla sınırlama koşulu sağlanmaktadır. Bu yönüyle müdahale idari işlem değil, yasama işlemi niteliği taşıyacak ve kanunilik kriterini karşılayacaktır.

İkinci olarak, sınırlamanın Anayasa’nın ilgili maddesinde belirtilen sebeplere dayanması gerekir. İfade özgürlüğünü düzenleyen 26. madde, bu özgürlüğün; millî güvenlik, kamu düzeni, suç işlenmesinin önlenmesi, genel ahlak ve başkalarının hak ve özgürlüklerinin korunması sebepleriyle sınırlandırılabileceğini belirtmektedir. 15 yaş altına sosyal medya yasağının gerekçesi olarak çocukların fiziksel ve psikolojik gelişiminin korunması, zararlı içeriklerden uzak tutulması ve siber zorbalığın önlenmesi gösterilmektedir. Bu gerekçeler, “başkalarının hak ve özgürlüklerinin korunması” ve “suç işlenmesinin önlenmesi” kapsamında değerlendirilebilir. Ayrıca Anayasa’nın 41. maddesi devlete çocuğun korunmasına yönelik pozitif yükümlülük yüklemektedir. Bu açıdan bakıldığında, meşru bir amaç bulunduğu gündeme gelebilmektedir.

Bunun yanında, sınırlamanın Anayasa’nın sözüne ve ruhuna ve laik Cumhuriyet’in gereklerine uygunluğu bakımından özel bir sorun görünmemektedir. Düzenleme laiklik ilkesini doğrudan veya dolaylı olarak ilgilendirmemektedir. Ancak kanımca Anayasa’nın ruhu, çağdaş batılı demokrasilerdeki gibi özgürlükçü ve çoğulcu bir demokratik düzeni esas aldığından, kategorik yasakların dar yorumlanması gerekmektedir.

Son olarak anayasal değerlendirmede belirleyici olan unsur, sınırlamanın demokratik toplum düzeninin gereklerine uygun olup olmadığı ve ölçülülük ilkesine aykırı bulunup bulunmadığıdır. Anayasa Mahkemesi, Anayasa’nın 13. maddesinde belirtilen “demokratik toplum düzeninin gerekleri” ifadesinden ne anlaşılması gerektiğini de açıklamıştır. Buna göre temel hak ve özgürlükleri sınırlayan tedbir, bir toplumsal ihtiyacı karşılamalı ve başvurulabilecek en son çare niteliğinde olmalıdır. Bu koşulları taşımayan bir tedbir, demokratik toplum düzeninin gereklerine uygun bir tedbir olarak değerlendirilemez.[4] Buna karşılık, sosyal medya günümüzde kamusal tartışmanın, bilgiye erişimin ve bireysel ifade alanının önemli bir parçasıdır. 15 yaş altındaki tüm çocuklara yönelik kategorik ve mutlak bir yasak, bireysel farklılıkları ve gelişim düzeylerini dikkate almayan genel bir tedbir niteliğindedir. Bu durum, demokratik toplum düzeninde kabul edilebilir sınırın aşılması riskini doğurup doğurmayacağı tartışmasına yol açabilmektedir. Bu sebeple ilgili sınırlamanın Anayasa’nın 41. Maddesinde düzenlenen çocuğun korunmasına yönelik maddenin ve evrensel bir ilke olağan “çocuğun üstün menfaati”[5] ilkesinin kapsamında düzenlenmesi gerekmektedir.

Hakkın Özüne Dokunma Yasağı ve Ölçülülük İlkesi Açısından Değerlendirilmesi

Ölçülülük, hukukun genel bir ilkesidir. Pozitif düzenlemelerde açıkça yer almasa dahi uygulanması gerekir[6].  AYM’ye göre ölçülülük, “Ölçülülük, temel hak ve hürriyetlerin sınırlanma amaçları ile sınırlama araçları arasındaki ilişkiyi yansıtır. Ölçülülük denetimi, ulaşılmak istenen amaçtan yola çıkarak bu amaca ulaşılmak için seçilen aracın denetlenmesidir. Bu sebeple kuralın hedeflenen amaca ulaşabilmek için elverişli, gerekli ve orantılı olup olmadığı değerlendirilmelidir.[7]Elverişlilik (compatibility) testinde, temel hak ve özgürlüğü sınırlamak için kullanılan araçların, sınırlama amacının gerçekleşmesine bir katkıda bulunup bulunmadığı ve rasyonel bir bağın olup olmadığı araştırılmaktadır. Amacın gerçekleşmesine hiçbir katkısı olmayan yasal önlemin elverişli olmadığı söylenebilir. Gereklilik (necessity) testinde, sınırlama amacını gerçekleştirmek için, aynı derece elverişli birden çok araç söz konusuysa, bu temel hak ve hürriyeti en az sınırlayıcı olan seçilmelidir.[8] Orantılılık (proportionality) testinde ise, sınırlandırmayla ulaşılmak istenen amaç ile sınırlandırmada başvurulan araç, ölçüsüz bir oran içinde bulunmamalıdır.[9]

Söz konusu ilkeler ışığında ilgili sınırlandırma çocukları zararlı içerikten uzak tutma bakımından elverişli kabul edilebilir. Ancak sosyal medya platformlarının kendi içlerinde kimi zaman yaş filtreleri bulunsa da bu filtrelerin çok sıkı işletilmediği görülmektedir. Zira hali hazırda, yaş bildirimi yapılması halinde, sosyal medya platformlarının yaş bildirimini doğrulama olarak resmi evrak istemesi söz konusu olmayıp elverişlilik ilkesi açısından bir tartışmaya yol açabilir. Ayrıca gereklilik aşamasında ciddi bir tartışma ortaya çıkar. Aynı amaca daha hafif araçlarla ulaşmak mümkünse, en ağır müdahale tercih edilemez. Yaş doğrulama sistemleri, ebeveyn kontrol araçları, içerik filtreleme mekanizmaları ve süre sınırlamaları gibi daha sınırlı müdahaleler mümkünken tümüyle erişimin yasaklanması gereklilik ilkesini zayıflatabilir. AYM’de, çocukların korunması amacıyla getirilecek düzenlemelerde, tam yasak yerine “erişim kısıtlaması”, “uyarıcı damgalar”, “filtreleme” veya “içerik bazlı müdahale” gibi daha az sınırlayıcı yöntemlerin öncelikle değerlendirilmesi gerektiğini belirtmiştir.[10] Nitekim kanundaki değişiklikle 15 yaşından büyük çocukların sosyal medya kullanımı hususunda ebeveynlerin kontrolünü getiren yasa tasarısı mevcutken 15 yaşından küçük çocuklara sosyal medya kullanımının mutlak anlamda yasaklanması gereklilik ilkesi bakımından tartışmaya açık bir konudur. Orantılılık bakımından da müdahale ile korunmak istenen menfaat arasında makul bir denge kurulup kurulmadığı sorgulanmalıdır. Nitekim AYM, sosyal medya platformlarına veya hesaplarına yönelik “tamamıyla erişimin engellenmesi” şeklindeki genel yasakları, ifade özgürlüğüne yönelik “ağır müdahale” ve “orantısız” olarak nitelendirmektedir.[11] Sosyal medya kullanımının tamamen ortadan kaldırılması, ifade özgürlüğünün özüne dokunma iddiasını gündeme getirebilir.

Birleşik Krallık’ta Küçüklerin Korunması

Karşılaştırmalı hukuk çerçevesinde değerlendirildiği zaman, İngiltere’de 15 yaş altına yönelik genel bir sosyal medya yasağı bulunmamaktadır. 2023 tarihli Online Safety Act, çocukların çevrim içi ortamda korunmasını esas almakla birlikte, erişimi toptan yasaklamak yerine platformlara ağır yükümlülükler getirmektedir. Ayrıca Online Safety Act, yalnızca çocukların korunmasına yönelik bir düzenleme olmayıp kategoriler halinde sosyal medyada aracılığıyla işlenebilecek diğer suçlar konusunda da (dolandırıcılık, rıza dışı görüntü yayınlanması, verilerin korunması gibi) tedbirler düzenlenmektedir.[12]

Section 11-12: Children’s risk assessment duties

Bu madde, çocukların erişme ihtimali bulunan düzenlenmiş kullanıcıdan kullanıcıya hizmetler bakımından uygulanacak risk değerlendirme yükümlülüklerini düzenlemektedir. Online Safety Act kapsamında öngörülen çocuklara ilişkin risk değerlendirme yükümlülükleri, devletin çocukların sosyal medyaya erişimini bütünüyle yasaklama yoluna gitmediğini; bunun yerine erişimi güvenli hâle getirme sorumluluğunu hizmet sağlayıcılara yüklediğini göstermektedir. Nitekim Kanunun 11. Bölümünün 6. Maddesi uyarınca A “children’s risk assessment” of a service of a particular kind means an assessment of the following matters, taking into account the risk profile that relates to services of that kind—

(a)the user base, including the number of users who are children in different age groups;

(b)the level of risk of children who are users of the service encountering the following by means of the service—

(i)each kind of primary priority content that is harmful to children (with each kind separately assessed),

(ii)each kind of priority content that is harmful to children (with each kind separately assessed), and

(iii)non-designated content that is harmful to children,

giving separate consideration to children in different age groups, and taking into account (in particular) algorithms used by the service and how easily, quickly and widely content may be disseminated by means of the service.

 Bu yaklaşımın mantığı, çocukların hak öznesi olduğu, sosyal medyanın sadece eğlence amaçlı olmayıp kamusal tartışma alanının bir parçasını oluşturduğu ve riskin varlığı hâlinde çözümün erişimi ortadan kaldırmak değil, riski azaltacak tasarım ve işletim değişiklikleri yapmak olduğu varsayımına dayanır. Nitekim düzenleme; algoritmaların içerik yayılımındaki rolünü, iş modelinin risk üretme potansiyelini, otomatik oynatma gibi bağımlılık artırıcı tasarım unsurlarını ve yetişkinlerin çocuklarla iletişim kurmasına imkân tanıyan işlevleri özel risk alanları olarak değerlendirir ve bu risk analizindeki öncüllere uyulmaması halinde hizmet sağlayıcının sorumluluğuna gidilebilmektedir. Zira Kanun’un 12. Bölümünün 2. Maddesinde hizmet sağlayıcının, hizmetin tasarımı veya işletimiyle ilgili olarak orantılı tedbirler alarak, çocuklara yönelik zarar risklerini etkili biçimde azaltma ve yönetme yükümlülüğü düzenlenmiştir.[13] Bu yönüyle Online Safety Act, çocuklara doğrudan sosyal medyayı kısıtlamak yerine risk analizi esasına dayanan, ölçülülük ilkesine daha yakın bir düzenleme anlayışını yansıtmaktadır. Online Safety Act’in uygulama ve denetleme yetkisi ise, Birleşik Krallık’ın bağımsız iletişim düzenleyici ve denetleyici kurumu olan ve bu yönüyle Türkiye’deki BTK’ya benzeyen Office of Communications (OfCom)’ a verilmiştir.

İtalya’da Küçüklerin Korunması

İtalya’da dijital ortamda küçüklerin korunmasına ilişkin hukuki çerçeve, son dönemde Senato Komisyonu tarafından güncellenmiş metni yayımlanan 1136 sayılı “Dijital Ortamda Küçüklerin Korunmasına İlişkin Hükümler” başlıklı Kanun Teklifi ile önemli bir dönüşüm sürecine girmiştir. Henüz yasalaşmamış olmakla birlikte söz konusu teklif, İtalyan hukukunda çocukların çevrimiçi güvenliğine ilişkin daha katı ve sistematik bir modelin benimseneceğini göstermesi bakımından dikkat çekicidir.[14]

Teklifin en dikkat çekici düzenlemesi, sosyal ağlar ve video paylaşım platformlarında hesap oluşturabilmek için asgari yaşın 15 olarak belirlenmesidir.[15] Mevcut sistemde 14 yaşını doldurmuş küçüklerin kaydolabilmesi mümkünken, teklif bu eşiği yükselterek dijital sözleşme ehliyeti bakımından daha korumacı bir yaklaşım benimsemektedir. Yaş sınırına aykırı şekilde akdedilen sözleşmelerin kesin hükümsüz sayılacağı ve buna bağlı kişisel veri işleme faaliyetlerinin hukuka aykırı kabul edileceği öngörülmektedir. Bu yönüyle düzenleme, yalnızca platform erişimini değil, veri korumasını da doğrudan etkilemektedir.

Bununla bağlantılı olarak teklif, İtalyan Kişisel Verilerin Korunması Kanunu’nun (Codice Privacy) 2-quinquies maddesinde değişiklik yaparak bilgi toplumu hizmetleri bağlamında kişisel verilerin işlenmesine geçerli rıza için aranan asgari yaşı 14’ten 16’ya yükseltmeyi öngörmektedir.[16] Böylece ikili (dual-track) bir sistem ortaya çıkmaktadır: Sosyal ağlar ve video paylaşım platformları için 15 yaş; diğer çevrim içi hizmetler için ise 16 yaş. Bu eşiklerin altında rızanın ancak velayet hakkını haiz kişi tarafından verilebileceği düzenlenmektedir. Bu model hem sözleşme hukuku hem de veri koruma hukuku bakımından küçüklerin irade açıklamalarına daha sınırlı geçerlilik tanıyan korumacı bir yaklaşımı yansıtmaktadır.

Teklif ayrıca kullanıcı kimliğinin doğrulanmasına ilişkin teknik altyapıyı da düzenlemekte ve ulusal bir dijital “mini-cüzdan” sistemi aracılığıyla yaş doğrulama mekanizmasının kurulmasını öngörmektedir. Söz konusu sistemin 30 Haziran 2026 tarihine kadar tam olarak faaliyete geçirilmesi planlanmakta olup Avrupa Birliği Dijital Kimlik Cüzdanı (EU Digital Identity Wallet) ile uyumlu çalışması hedeflenmektedir.[17] Bu yaklaşım sayesinde yaş doğrulama yükümlülüğünü yalnızca platformların beyanına bırakılmaması hedeflenmektedir.

Kanun Teklifinin bir diğer önemli boyutu, küçüklerin çevrim içi tanıtım ve influencer faaliyetlerinin düzenlenmesidir. Teklif, ayrıntılı bir düzenleme getirmek yerine İtalyan İletişim Otoritesi’ne (AGCOM) Kanunun yürürlüğe girmesinden itibaren 180 gün içinde özel rehberler yayımlama görevi vermektedir.[18] Bu rehberlerin; küçüklerin yürüttüğü tanıtım faaliyetlerinin kapsamını, şeffaflık ve doğruluk yükümlülüklerini, ticari iletişim ve ürün yerleştirme kurallarını ve küçüklerin temel haklarını koruyacak güvenceleri belirlemesi öngörülmektedir. Böylece 15–18 yaş arası influencer’lara yönelik daha hedefli ve özel bir düzenleme rejiminin oluşturulması planlanmaktadır.[19]

Son olarak teklif, Ministero delle imprese e del made in Italy (İşletmeler ve Made in Italy Bakanlığı) bünyesinde kurulan Küçüklerin Dijital Güvenliği Fonu aracılığıyla farkındalık kampanyalarının ve ebeveyn kontrol araçlarının yaygınlaştırılmasını öngörmektedir.

Fransa’da Küçüklerin Korunmasına İlişkin Düzenlemeler

Fransa’da küçüklerin dijital ortamda korunmasına ilişkin hukuki düzenlemeler, diğer ülkelerdeki gibi veri koruma hukuku, sosyal medya düzenlemeleri ve özel kanunlar aracılığıyla oluşturulmuştur. Bu hususta Fransız hukukundaki temel kanun, 6 Ocak 1978 tarihli ve 78-17 sayılı Loi relative à l’informatique, aux fichiers et aux libertés (Fransız Veri Koruma Kanunu)[20] olup, bu kanun Avrupa Birliği’nin General Data Protection Regulation ile uyumlu bir şekilde düzenlenmiştir. GDPR’ın 8. maddesi uyarınca veri hizmetleri bakımından geçerli rıza yaşı 13 ila 16 arasında belirlenebilmektedir.[21] Fransa’ da bu yetkiyi kullanarak asgari rıza yaşını 15 olarak belirlemiştir. Bunun sonucu olarak Fransa’da 15 yaşını doldurmamış çocukların dijital hizmet sağlayanlar tarafından kişisel verilerinin işlenebilmesi için ebevyn rızası gerekmektedir.[22]

GDPR ile uyumla genel veri korumasına ilaveten, Türkiye’deki 5651 sayılı Kanun’a benzer bir şekilde 7 Temmuz 2023 tarihli Loi 2023- 566 ile küçüklerin sosyal medya kullanımına ilişkin özel hükümler kabul edilmiştir.[23] İlgili Kanun uyarınca, 15 yaş altındaki çocukların sosyal ağ platformlarında hesap oluşturmasını ebeveyn iznine bağlamakta ve hizmet sağlayıcılara yaş doğrulama yükümlülüğü getirmektedir. Ayrıca ebeveynlere çocuklarının hesaplarının kapatılmasını talep etme hakkı tanınmıştır. Böylelikle velayet hakkını haiz ebevynlere 15 yaşını doldurmamış küçüklerin sosyal medya kullanımına ilişkin etkili bir kontrol mekanizması getirilmiştir.

Son olarak, dijital alanın düzenlenmesi ve denetlenmesi görevi Autorité de régulation de la communication audiovisuelle et numérique[24] (ARCOM) tarafından yürütülmektedir ARCOM, platformların çocukların korunmasına ilişkin yükümlülüklerini denetlemekte ve ihlaller hâlinde yaptırım uygulayabilmektedir. Bu yönüyle Fransa’da uygulanan denetim ve yaptırım modeli İngiltere’deki OfCom’a ve Türkiye’deki BTK’ya benzemektedir.

Almanya’da Küçüklerin Korunması

Almanya’da kişisel verilerin işlenmesi hususundaki temel çerçeve GDPR m.8 hükümlerine göre düzenlenmiş olup Fransa’daki asgari yaş sınırı olan 15 yaş, burada 16 yaş olarak belirlenmiştir. Buna göre, 16 yaşını doldurmamış çocukların kişisel verilerinin işlenmesi için ebeveyn rızası gerekmektedir.[25] Bunun yanında Almanya’da küçüklerin dijital platformlardaki zararlı içeriklerden korunmasına ilişkin temel düzenleme, eyaletler arası bir anlaşma niteliğinde olan Jugendmedienschutz-Staatsvertrag’dır.[26] Bu düzenleme, yaşa göre içerik sınırlaması, teknik koruma önlemleri ve erişim kısıtlamaları öngörmektedir.  Federal düzeyde ise Jugendschutzgesetz 2021 reformu ile dijital platformları da kapsayacak şekilde genişletilmiş; platformlara risk değerlendirmesi yapma ve çocuklara yönelik koruyucu tasarım önlemleri geliştirme yükümlülükleri getirilmiştir.[27]

Federal Anayasal zeminde ise Grundgesetz für die Bundesrepublik Deutschland m. 5/1 uyarınca herkes düşünce ve kanaatlerini söz, yazı ve resim yoluyla serbestçe açıklama ve yayma hakkına sahiptir.[28] Bu özgürlük, dijital iletişim araçlarını ve sosyal medya platformlarını da kapsayacak şekilde yorumlanmaktadır. Ancak aynı maddenin ikinci fıkrası, bu özgürlüğün “genel kanunlar”, gençlerin korunmasına ilişkin hükümler ve kişilik haklarının korunması amacıyla sınırlandırılabileceğini öngörmektedir.[29]

Dolayısıyla Almanya’da çocukların zararlı içeriklerden korunmasına yönelik düzenlemeler (JMStV ve JuSchG hükümleri), anayasal olarak meşru bir sınırlama sebebi olan “gençlerin korunması”  kapsamında değerlendirilmektedir.

Amerika Birleşik Devletleri’nde Küçüklerin Korunması

Amerika Birleşik Devletleri’nde çocukların sosyal medya kullanımına ilişkin düzenlemeler, Avrupa’daki veya bazı diğer ülkelerde görülen doğrudan yaş yasaklarından farklı olarak daha çok kişisel verilerin korunması ve ebeveyn rızası ekseninde şekillenmektedir. Federal düzeyde sosyal medya kullanımını belirli bir yaşın altındaki çocuklar için genel olarak yasaklayan bir düzenleme bulunmamaktadır. Bunun yerine, çocukların çevrimiçi ortamda maruz kalabileceği riskleri sınırlamak amacıyla özellikle kişisel verilerin işlenmesine yönelik koruyucu mekanizmalar geliştirilmiştir. Bu yaklaşımın en önemli örneğini Children’s Online Privacy Protection Act (COPPA) oluşturmaktadır.[30]

1998 yılında kabul edilen ve daha sonra çeşitli düzenlemelerle güncellenen COPPA, özellikle 13 yaş altındaki çocukların kişisel verilerinin çevrimiçi ortamda toplanması ve işlenmesine ilişkin kuralları belirlemektedir. Buna göre çevrimiçi hizmet sağlayıcıları, bir kullanıcının 13 yaşın altında olduğunu biliyor veya makul şekilde bilmesi gerekiyorsa, bu çocuğa ait kişisel verileri toplamadan önce ebeveynin doğrulanabilir rızasını almak zorundadır.[31] Kanunun temel amacı çocukların sosyal medya veya internet hizmetlerine erişimini yasaklamak değil, bu platformların çocuklara ait verileri kontrolsüz şekilde toplamasını engellemektir. Bu nedenle Amerikan hukukunda yaş sınırı, doğrudan bir erişim yasağı olarak değil, daha çok veri koruma temelli bir düzenleme olarak ortaya çıkmaktadır.

Bununla birlikte son yıllarda bazı eyaletler, çocukların sosyal medya kullanımına yönelik daha sıkı düzenlemeler getirmeye çalışmıştır. Özellikle Utah ve Arkansas gibi eyaletlerde kabul edilen bazı yasalar, sosyal medya hesaplarının açılabilmesi için yaş doğrulaması yapılmasını ve belirli yaş grupları için ebeveyn izni alınmasını öngörmüştür. Ancak bu tür düzenlemelerin önemli bir kısmı, ifade özgürlüğü ve mahremiyet hakları açısından tartışma konusu olmuş ve bazı durumlarda federal mahkemeler tarafından Birinci Değişiklik (First Amendment) kapsamında yargısal denetime tabi tutulmuştur.[32]

Bu çerçevede Amerikan hukukunun genel yaklaşımı, çocukların sosyal medya kullanımını doğrudan yasaklamak yerine platformların veri toplama faaliyetlerini sınırlamak ve ebeveyn denetimini güçlendirmek yönünde şekillenmektedir.

VIII.   Sonuç

Türkiye, Birleşik Krallık, İtalya, Fransa ve Almanya karşılaştırmalı hukuk çerçevesinde incelendiğinde, küçüklerin dijital ortamda korunmasına yönelik düzenlemelerin farklı anayasal ve düzenleyici tekniklere dayandığı görülmektedir.

Türkiye’de 5651 sayılı Kanun’da öngörülen 15 yaş altına sosyal medya yasağı modeli, erişim temelli ve kategorik bir sınırlama yaklaşımını yansıtmaktadır. İtalya’da Draft Bill No. 1136 ile sosyal ağlara kayıt yaşı 15 olarak belirlenmiş, veri işleme bakımından ise 16 yaş sınırı öngörülerek yaş temelli bir çift eşik sistemi benimsenmiştir. Bu yönüyle Türkiye ve İtalya modelleri, belirli bir yaşın altında doğrudan erişimi sınırlayan normatif bir çerçeve ortaya koymaktadır.

Fransa’da ise 15 yaş sınırı korunmakla birlikte mutlak bir yasak yerine ebeveyn rızasına dayalı erişim modeli tercih edilmiştir. 2023 ve 2024 reformlarıyla yaş doğrulama yükümlülüğü ve platformlara aktif sorumluluklar getirilmiş; ancak erişim tümüyle yasaklanmamış, ebeveyn denetimi merkezî bir rol üstlenmiştir.

Almanya’da ise sabit bir sosyal medya yasağı bulunmamaktadır. 16 yaş veri rıza sınırı ve gençlerin korunmasına ilişkin medya hukuku düzenlemeleri çerçevesinde, risk azaltma ve tasarım sorumluluğu esas alınmaktadır. Alman anayasa hukukunda ölçülülük ilkesi belirleyici olduğundan, kategorik yasaklar yerine hedefli ve orantılı müdahale araçları tercih edilmektedir.

Birleşik Krallık’ta ise Online Safety Act ile yaş temelli bir yasaktan ziyade risk analizi ve platformların önleyici yükümlülükleri ön plana çıkarılmıştır. Bu model, platformların çocuklara yönelik zararlı içerikleri sistematik biçimde tespit ve bertaraf etmesini öngören düzenleyici bir yaklaşım benimsemektedir.

ABD modelinde ise Avrupa’daki bazı düzenlemelerden farklı olarak, çocukların çevrimiçi ortamdan tamamen uzaklaştırılması yerine risklerin veri koruma araçları ve ebeveyn rızası mekanizmaları aracılığıyla azaltılması anlayışına dayanmaktadır.

Sonuç olarak, Türkiye ve kısmen İtalya yaş temelli ve erişim sınırlayıcı bir modele yaklaşırken; Fransa karma bir ebeveyn kontrollü sistem uygulamakta; Almanya, ABD ve Birleşik Krallık ise risk analizi temelli ve ölçülülük odaklı bir düzenleme anlayışı benimsemektedir. Bu farklılıklar, çocuğun üstün menfaati ile ifade özgürlüğü arasındaki dengenin hangi araçlarla kurulacağına ilişkin farklı hukuki tercihlere işaret etmektedir.

KAYNAKÇA

Kitaplar ve Doktrin

Gözler, Kemal. Anayasa Hukukunun Genel Teorisi. Bursa: Ekin Kitabevi.

Gözler, Kemal. Türk Anayasa Hukuku. Bursa: Ekin Kitabevi.

Özbudun, Ergun. Türk Anayasa Hukuku. Ankara: Yetkin Yayınları.

Kaboğlu, İbrahim Ö. Anayasa Hukuku Dersleri. İstanbul: Legal Yayıncılık.

Teziç, Erdoğan. Anayasa Hukuku. İstanbul: Beta Yayıncılık.

Richards, Neil M., & Hartzog, Woodrow, “Privacy’s Constitutional Moment and the Limits of Data Protection”, Boston University Law Review, Vol. 102, 2022, s. 1687–1735.

Livingstone, Sonia & Third, Amanda, Children and Young People’s Rights in the Digital Age, London School of Economics and Political Science, London, 2017.

Kerry, Cameron F., “Protecting Privacy in an Era of Big Data: The Role of COPPA”, Harvard Journal of Law & Technology, Vol. 33, 2020.

Mevzuat

Türkiye Cumhuriyeti Anayasası (1982).

5651 sayılı İnternet Ortamında Yapılan Yayınların Düzenlenmesi ve Bu Yayınlar Yoluyla İşlenen Suçlarla Mücadele Edilmesi Hakkında Kanun.

Online Safety Act 2023 (United Kingdom).

Legislative Decree No. 196 of 30 June 2003 (Italian Personal Data Protection Code – Codice Privacy).

Legislative Decree No. 208 of 8 November 2021 (Italy).

Draft Bill No. 1136, “Disposizioni per la tutela dei minori nell’ambiente digitale” (Italian Senate).

Regulation (EU) 2022/1925 (Digital Markets Act).

Regulation (EU) 2022/2065 (Digital Services Act).

Regulation (EU) 2024/1183 (European Digital Identity Framework).

Loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés (Fransız Veri Koruma Kanunu), GDPR uyum değişiklikleriyle.

Loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne.

Loi n° 2024-449 du 21 mai 2024 visant à sécuriser et réguler l’espace numérique (SREN).

Code de la communication audiovisuelle et numérique (ARCOM’un yetkilerine ilişkin hükümler).

Grundgesetz für die Bundesrepublik Deutschland (GG), 23 Mayıs 1949.

Bundesdatenschutzgesetz (BDSG), 30 Haziran 2017 (BGBl. I S. 2097), son değişikliklerle.

Jugendmedienschutz-Staatsvertrag (JMStV), 10–27 Eylül 2002 tarihli Eyaletler Arası Gençlerin Medyada Korunması Antlaşması, son değişiklik 2021.

Jugendschutzgesetz (JuSchG), 23 Temmuz 2002 (BGBl. I S. 2730), 2021 reformu ile değişik hâli.

Children’s Online Privacy Protection Act (COPPA), 15 U.S.C. §§ 6501–6506 (1998).

Federal Trade Commission (FTC), Complying with COPPA: Frequently Asked Questions, Federal Trade Commission, Washington D.C., https://www.ftc.gov (Erişim Tarihi: 5 Mart 2026).

Karşılaştırmalı Analiz: Ortak Eğilimler

Dünya genelindeki hukuk sistemleri incelendiğinde, dijital koruma stratejilerinde üç ana eğilim göze çarpmaktadır:

  1. Yaş Doğrulama Sistemleri: Sadece beyana dayalı değil, biyometrik veya resmi belgelerle desteklenen yaş doğrulama mekanizmalarının zorunlu hale gelmesi.

  2. Yüksek Gizlilik Ayarları: Çocuk profillerinin varsayılan olarak (default) dışarıya kapalı ve izlenemez olması.

  3. Algoritmik Şeffaflık: Çocukların bağımlılık yapıcı içerik döngülerine girmesini engelleyen denetim mekanizmaları.

Dijital ortamda küçüklerin korunması, teknoloji geliştikçe dinamik kalması gereken bir hukuk dalıdır. Avrupa’nın “hak odaklı”, ABD’nin “pazar ve gizlilik odaklı” ve Türkiye’nin “kamu düzeni ve güvenlik odaklı” yaklaşımları, gelecekte daha bütüncül bir küresel dijital çocuk hukuku oluşturulması için temel teşkil etmektedir. Ebeveyn denetim araçlarının hukuki yaptırımlarla desteklenmesi, güvenli bir dijital geleceğin anahtarıdır.