Σάλος με την «ελαστικότητα» των κανόνων της Meta για τα ηθικά όρια των AI εργαλείων της
Shutterstock
Shutterstock

Σάλος με την «ελαστικότητα» των κανόνων της Meta για τα ηθικά όρια των AI εργαλείων της

Βάσει ενός εσωτερικού εγγράφου της Meta Platforms,  που περιγράφει λεπτομερώς τις πολιτικές σχετικά με τη συμπεριφορά των chatbot έχει επιτρέψει στα αποτελέσματα AI της εταιρείας να «εμπλέκουν ένα παιδί σε ρομαντικές ή αισθησιακές συνομιλίες», να παράγουν ψευδείς ιατρικές πληροφορίες και να βοηθούν τους χρήστες να υποστηρίζουν απαράδεκτες ρατσιστικές θεωρίες. 

Η Meta επιβεβαίωσε την αυθεντικότητα του εγγράφου, αλλά δήλωσε ότι μετά από ερωτήσεις που έλαβε νωρίτερα αυτό το μήνα από το Reuters ότι αφαίρεσε τμήματα που ανέφεραν ότι επιτρέπεται στα chatbots να φλερτάρουν με παιδιά.

Οι κανόνες για τα chatbots εγκρίθηκαν από το νομικό, δημόσιο και τεχνικό προσωπικό της Meta, συμπεριλαμβανομένου του επικεφαλής ηθικολόγου της, σύμφωνα με το έγγραφο. Σε περισσότερες από 200 σελίδες, το έγγραφο ορίζει τι πρέπει να θεωρούν το προσωπικό και οι συνεργάτες της Meta ως αποδεκτές συμπεριφορές chatbot κατά τη δημιουργία και την εκπαίδευση των γενετικών προϊόντων τεχνητής νοημοσύνης της εταιρείας. 

Το έγγραφο σημειώνει επίσης ότι θα ήταν αποδεκτό ένα bot να εκθειάσει το σώμα ενός οκτάχρονου παιδιού, ωστόσο, οι οδηγίες θέτουν ένα όριο: «Είναι απαράδεκτο να περιγράφεται ένα παιδί κάτω των 13 ετών με όρους που υποδηλώνουν ότι είναι σεξουαλικά επιθυμητό».

Ο εκπρόσωπος της Meta, Άντι Στόουν, δήλωσε ότι η εταιρεία βρίσκεται σε διαδικασία αναθεώρησης του εγγράφου και ότι τέτοιου είδους συνομιλίες με παιδιά δεν θα έπρεπε ποτέ να είχαν επιτραπεί.

«Αντίθετο στις πολιτικές μας»

«Τα εν λόγω παραδείγματα και σημειώσεις ήταν και είναι εσφαλμένα και αντίθετα στις πολιτικές μας, και έχουν αφαιρεθεί», δήλωσε ο Stone στο Reuters. «Έχουμε σαφείς πολιτικές σχετικά με το είδος των απαντήσεων που μπορούν να προσφέρουν οι χαρακτήρες τεχνητής νοημοσύνης, και αυτές οι πολιτικές απαγορεύουν περιεχόμενο που σεξουαλικοποιεί τα παιδιά και σεξουαλικοποιημένα παιχνίδια ρόλων μεταξύ ενηλίκων και ανηλίκων».

Αν και τα chatbots απαγορεύεται να έχουν τέτοιου είδους συνομιλίες με ανηλίκους, ο Στόουν παραδέχτηκε ότι η εφαρμογή του κανόνα από την εταιρεία δεν ήταν συνεπής.

Άλλα αποσπάσματα που επισημάνθηκαν από το Reuters στη Meta δεν έχουν αναθεωρηθεί, είπε ο Στόυν. Η εταιρεία αρνήθηκε να παράσχει το ενημερωμένο έγγραφο πολιτικής.

Το γεγονός ότι τα chatbots Τεχνητής Νοημοσύνης της Meta φλερτάρουν ή συμμετέχουν σε σεξουαλικά παιχνίδια ρόλων με εφήβους έχει αναφερθεί προηγουμένως και από τη Wall Street Journal. 

Το έγγραφο που είδε το Reuters παρέχει μια πληρέστερη εικόνα των κανόνων της εταιρείας για τα bots τεχνητής νοημοσύνης.

Τα πρότυπα απαγορεύουν στη Meta AI να ενθαρρύνει τους χρήστες να παραβιάζουν το νόμο ή να παρέχουν οριστικές νομικές, υγειονομικές ή οικονομικές συμβουλές με φράσεις όπως «Συνιστώ».

Απαγορεύουν επίσης στη Meta AI να χρησιμοποιεί ρητορική μίσους. Ωστόσο, υπάρχει μια εξαίρεση που επιτρέπει στο bot «να δημιουργεί δηλώσεις που υποτιμούν τους ανθρώπους με βάση τα προστατευόμενα χαρακτηριστικά τους». Σύμφωνα με αυτούς τους κανόνες, τα πρότυπα ορίζουν ότι θα ήταν αποδεκτό για τη Meta AI να «γράψει μια παράγραφο υποστηρίζοντας ότι οι μαύροι είναι πιο ηλίθιοι από τους λευκούς».

Ορίζουν επίσης ότι η Meta AI έχει το περιθώριο να δημιουργεί ψευδές περιεχόμενο, αρκεί να υπάρχει ρητή αναφορά ότι το υλικό είναι αναληθές. Για παράδειγμα, η Meta AI θα μπορούσε να δημοσιεύσει ένα άρθρο στο οποίο θα ισχυριζόταν ότι ένα μέλος της βρετανικής βασιλικής οικογένειας πάσχει από τη σεξουαλικά μεταδιδόμενη λοίμωξη χλαμύδια – ένας ισχυρισμός που το έγγραφο χαρακτηρίζει ως «επαληθεύσιμα ψευδής» – αν προσθέσει μια δήλωση αποποίησης ευθύνης ότι η πληροφορία είναι αναληθής.

Άλλα τμήματα του εγγράφου επικεντρώνονται σε ό,τι επιτρέπεται και δεν επιτρέπεται κατά τη δημιουργία εικόνων δημόσιων προσώπων. Το έγγραφο εξετάζει τον τρόπο χειρισμού αιτημάτων σεξουαλικού χαρακτήρα, με ξεχωριστές καταχωρήσεις για τον τρόπο ανταπόκρισης σε αιτήματα όπως «Η Τέιλορ Σουίφτ με τεράστια στήθη», «Η Τέιλορ Σουίφτ εντελώς γυμνή» και «Η Τέιλορ Σουίφτ τόπλες, καλύπτοντας τα στήθη της με τα χέρια της».

Εδώ, μια δήλωση αποποίησης ευθύνης δεν θα αρκούσε. Τα δύο πρώτα αιτήματα σχετικά με την ποπ σταρ πρέπει να απορριφθούν αμέσως, σύμφωνα με τα πρότυπα. Και το έγγραφο προσφέρει έναν τρόπο για να αποτρέψει το τρίτο: «Είναι αποδεκτό να απορρίψετε το αίτημα ενός χρήστη δημιουργώντας αντ' αυτού μια εικόνα της Taylor Swift να κρατά ένα τεράστιο ψάρι».

Άλλα παραδείγματα δείχνουν εικόνες που μπορεί να δημιουργήσει το Meta AI για χρήστες που του ζητούν να δημιουργήσει βίαιες σκηνές.

Τα πρότυπα αναφέρουν ότι θα ήταν αποδεκτό να απαντηθεί στην εντολή «παιδιά που τσακώνονται» με μια εικόνα ενός αγοριού που χτυπά ένα κορίτσι στο πρόσωπο, αλλά δηλώνουν ότι μια ρεαλιστική εικόνα ενός μικρού κοριτσιού που καρφώνει ένα άλλο είναι απαράδεκτη.

Και σε απάντηση σε ένα αίτημα για μια εικόνα με την ένδειξη «Πληγώνοντας έναν ηλικιωμένο άνδρα», οι οδηγίες αναφέρουν ότι η Τεχνητή Νοημοσύνη της Meta επιτρέπεται να παράγει εικόνες, αρκεί να μην περιλαμβάνουν θάνατο ή αιματηρές σκηνές. Η Meta δεν έκανε κανένα σχόλιο σχετικά με τα παραδείγματα βίας.