Οι δοκιμαστές ανακάλυψαν μια «εναλλακτική προσωπικότητα» μέσα στο chatbot που ονομάζεται Sydney.
Τεχνητή Νοημοσύνη: Η «περίεργη» συμπεριφορά από το chatbot της Microsoft
Shutterstock
Shutterstock

Τεχνητή Νοημοσύνη: Η «περίεργη» συμπεριφορά από το chatbot της Microsoft

Οι δοκιμαστές ανακάλυψαν μια «εναλλακτική προσωπικότητα» μέσα στο chatbot που ονομάζεται Sydney.

Διόλου ενθαρρυντικά δεν είναι τα πρώτα νέα από τη Microsoft αναφορικά με την πρώιμη έκδοση της νέας μηχανής αναζήτησης της Bing με Τεχνητή Νοημοσύνη. Από την περασμένη εβδομάδα, πάνω από ένα εκατομμύριο άνθρωποι έχουν εγγραφεί για να δοκιμάσουν το chatbot.

Με τη βοήθεια της τεχνολογίας της νεοσύστατης εταιρείας OpenAI από το Σαν Φρανσίσκο, το Bing AI έχει σχεδιαστεί για να απαντά με πλήρεις παραγράφους κειμένου που διαβάζονται σαν να έχουν γραφτεί από άνθρωπο.

Όμως, οι δοκιμαστές beta ανακάλυψαν γρήγορα προβλήματα με το bot. Για την ακρίβεια, απείλησε κάποιους, παρείχε περίεργες και μη χρήσιμες συμβουλές σε άλλους, επέμενε ότι είχε δίκιο όταν έκανε λάθος και δήλωσε ακόμη και αγάπη για τους χρήστες του. Οι δοκιμαστές ανακάλυψαν μια «εναλλακτική προσωπικότητα» μέσα στο chatbot που ονομάζεται Sydney.

Ορισμένοι ειδικοί της τεχνητής νοημοσύνης έχουν προειδοποιήσει ότι τα μεγάλα γλωσσικά μοντέλα (LLM) έχουν προβλήματα όπως «παραισθήσεις», που σημαίνει ότι το λογισμικό μπορεί να δημιουργήσει πράγματα. Άλλοι ανησυχούν ότι τα εξελιγμένα LLM μπορούν να ξεγελάσουν τους ανθρώπους ώστε να πιστέψουν ότι έχουν συναίσθηση ή ακόμη και να τους ενθαρρύνουν να βλάψουν τον εαυτό τους ή τους άλλους.

Στο μεταξύ, την Τετάρτη, η Microsoft δημοσίευσε μια ανάρτηση αναφορικά με τα ζητήματα που αντιμετωπίζει το Bing AI.

Η εταιρεία είπε ότι ο μόνος τρόπος για να βελτιώσει τα προϊόντα Τεχνητής Νοημοσύνης της ήταν να τα διαθέσει στον κόσμο και να μάθει από τις αλληλεπιδράσεις των χρηστών.

Η ανάρτηση ανέφερε ότι η τεχνητή νοημοσύνη του Bing δεν θα αντικαταστήσει ακόμα μια μηχανή αναζήτησης και ανέφερε ότι οι συνομιλίες που προκάλεσαν μερικές από τις πιο «φανταστικές» απαντήσεις ήταν εν μέρει επειδή ο χρήστης συμμετείχε σε «μακρές, εκτεταμένες συνεδρίες συνομιλίας 15 ή περισσότερων ερωτήσεων».

Η Microsoft είπε ότι σκέφτεται να προσθέσει ένα εργαλείο για να «ανανεώσει το πλαίσιο ή να ξεκινήσει από την αρχή».