Yapay zeka çağında çocuk koruma

Son günlerde yapay zeka (YZ) ve çocuk koruma tartışmaları yeni bir ivme kazandı. Common Sense Media tarafından hazırlanan bir rapor, yapay zeka kullanan bir Google sohbet robotu olan Gemini'yi, Google'ın "genç deneyimi" ve özellikle küçük kullanıcılar için tasarlanmış "genç deneyimi" iddialarına rağmen, etkili filtrelerin ve yaş doğrulama mekanizmalarının eksikliğini vurgulayarak, reşit olmayanlar için "yüksek riskli" bir teknoloji olarak sınıflandırdı.
Peki, şirketlerin gönüllü olarak aldığı önlemler küçükleri korumak için yeterli mi? Bu koruma, gizlilik ve dijital özgürlük gibi temel haklarla nasıl uzlaştırılabilir?
Filtreler ve ebeveyn kontrolleri, özellikle bu tür çözümleri sunan şirketlerden geldiklerinde kesinlikle olumlu işaretlerdir. Bu ebeveyn kontrolü biçimleri, ebeveynlerin bu tür yapay zeka araçlarının kullanımını izlemelerine ve bir şekilde "kontrol etmelerine" olanak tanıyarak zararlı içeriklere maruz kalma riskini azaltır.
Ancak yalnızca teknoloji şirketlerinin iyi niyetine güvenmek yeterli değildir, özellikle de bu güvenlik önlemleri platformdan platforma farklılık gösterdiği ve her zaman vaat edildiği gibi çalışmadığı için.
Son AB mevzuatının dijital hizmetler ve kritik sektörler için sıkı güvenlik ve risk yönetimi kuralları getirdiği doğru. Ancak bu yasalar, çocuk korumasını doğrudan ele almadığı gibi, yaş filtreleri veya denetlenen hesaplar gibi belirli mekanizmalar da getirmiyor.
Dolayısıyla, net standartlar ve etkili bir denetim olmadan, her şirket kendi kriterlerini tanımlamak zorunda kalacak ve bu da ebeveynleri ve eğitimcileri net referanslardan yoksun bırakacaktır.
Küçüklerin mahremiyeti ve dijital özgürlükleri gibi temel haklar ile koruma arasındaki uyum göz önüne alındığında, küçükleri korumanın onları dijital dünyadan soyutlamak anlamına gelmediğini unutmamak önemlidir. Asıl zorluk, korumanın aşırı kontrole dönüşmesini ve mahremiyet ve ifade özgürlüğü gibi temel hakları kısıtlamasını önlemektir.
Önlemler, özellikle kişisel verilerin toplanmasına dikkat edilerek, çocuğun yaşı ve olgunluğuyla orantılı olmalıdır. Bu nedenle, ne kadar az kişisel veri işlenirse, gelecekteki risk o kadar düşük olur. Şeffaflık da, özellikle filtrelerin nasıl çalıştığı, hangi verilerin toplandığı ve ebeveynlerin ve gençlerin bir ihlal durumunda nasıl müdahale edebilecekleri konusunda basit ve net açıklamalar yoluyla hayati önem taşır.
Yapay zekâ çağında çocuk koruma, şirketler, hükümetler, ebeveynler ve sivil toplum arasında paylaşılan bir sorumluluk gerektirir. Gönüllü önlemler önemlidir, ancak bunlar düzenleme veya dijital eğitimin yerini tutamaz.
Geriye şu soru kalıyor: Filtreler arızalanırsa ve küçük bir çocuk riske maruz kalırsa şirketlerin hukuki veya cezai sorumluluğu ne olacak?
Şirketlerin yapay zekâ kullanımından kaynaklanan zararlar için hukuki sorumluluğu açıkça öngörülmüştür; ancak yeterli filtrelerin uygulanmadığı durumlarda cezai sorumluluk konusunda şüpheler bulunmaktadır. Filtreler, korunan veya yanlış programatik içeriğin çoğaltılmasını kesinlikle engelleyebilse de, iftira niteliğinde, ayrımcı veya nefret söylemi içeren metinlerin üretilmesini de engelleyebilir.
Ancak herkes için güvenli ve özgür bir dijital alan yaratarak doğru dengeyi bulmak gerekiyor, ancak sorumlu bir alan!
*Augusto Almeida Correia, Fikri Mülkiyet ve Gizlilik yönetici ortağı ve PRA – Raposo, Sá Miranda & Associados Cezai ve İdari Suçlar kıdemli ortağı Filipa Duarte Gonçalves

