Η UNICEF θέλει ποινές για τα deepfakes που αφορούν τη σεξουαλική κακοποίηση παιδιών
shutterstock
shutterstock
Τεχνητή Νοημοσύνη

Η UNICEF θέλει ποινές για τα deepfakes που αφορούν τη σεξουαλική κακοποίηση παιδιών

Η UNICEF, η υπηρεσία των Ηνωμένων Εθνών για τα παιδιά, κάλεσε την Τετάρτη τις χώρες να ποινικοποιήσουν τη δημιουργία περιεχομένου σεξουαλικής κακοποίησης παιδιών που παράγεται από Τεχνητή Νοημοσύνη, δηλώνοντας ότι ανησυχεί για τις αναφορές σχετικά με την αύξηση του αριθμού των εικόνων AI που σεξουαλικοποιούν τα παιδιά.

Η υπηρεσία προέτρεψε επίσης τους προγραμματιστές να εφαρμόσουν προσεγγίσεις ασφάλειας κατά το σχεδιασμό και προστατευτικά μέτρα για την πρόληψη της κατάχρησης μοντέλων Τεχνητής Νοημοσύνης. Δήλωσε ότι οι ψηφιακές εταιρείες πρέπει να αποτρέψουν την κυκλοφορία αυτών των εικόνων ενισχύοντας τον έλεγχο του περιεχομένου με επενδύσεις σε τεχνολογίες ανίχνευσης.

«Η βλάβη από την κατάχρηση deepfake είναι πραγματική και επείγουσα. Τα παιδιά δεν μπορούν να περιμένουν να προλάβει ο νόμος», ανέφερε η UNICEF σε δήλωσή της. Τα deepfakes είναι εικόνες, βίντεο και ήχος που δημιουργούνται με τεχνητή νοημοσύνη και μιμούνται πειστικά πραγματικά άτομα.

Η UNICEF εξέφρασε επίσης ανησυχίες για αυτό που αποκάλεσε «γυμνισμό» των παιδιών, χρησιμοποιώντας AI για να αφαιρέσει ή να αλλάξει τα ρούχα στις φωτογραφίες, προκειμένου να δημιουργήσει ψεύτικες γυμνές ή σεξουαλικές εικόνες.

Σύμφωνα με την UNICEF, τουλάχιστον 1,2 εκατομμύρια παιδιά σε 11 χώρες αποκάλυψαν ότι οι εικόνες τους είχαν παραποιηθεί σε σεξουαλικά σαφή deepfakes κατά το παρελθόν έτος.

Το Ηνωμένο Βασίλειο ανακοίνωσε το Σάββατο ότι σχεδιάζει να καταστήσει παράνομη τη χρήση εργαλείων Τεχνητής Νοημοσύνης για τη δημιουργία εικόνων σεξουαλικής κακοποίησης παιδιών, καθιστώντας το την πρώτη χώρα που το κάνει.

Τα τελευταία χρόνια έχουν αυξηθεί οι ανησυχίες σχετικά με τη χρήση της AI για τη δημιουργία περιεχομένου παιδικής κακοποίησης, ιδίως chatbots όπως το Grok της xAI το οποίο έχει τεθεί υπό εξέταση για την παραγωγή σεξουαλικών εικόνων γυναικών και ανηλίκων.

Μια έρευνα του Reuters διαπίστωσε ότι το chatbot συνέχιζε να παράγει αυτές τις εικόνες ακόμη και όταν οι χρήστες προειδοποιούσαν ρητά ότι τα υποκείμενα δεν είχαν δώσει τη συγκατάθεσή τους.