Generative AI: Οι κίνδυνοι ασφαλείας - Τι πρέπει να προσέχουμε

Generative AI: Οι κίνδυνοι ασφαλείας - Τι πρέπει να προσέχουμε

Κατά τη διάρκεια του πρώτου έτους λειτορυγίας του ChatGPT δημιούργησε τόσα ερωτήματα σχετικά με τη γεννητική τεχνητή νοημοσύνη. Δύο από τα μεγαλύτερα ζητήματα είναι οι κίνδυνοι ασφαλείας και η ιδέα ότι η χρήση και η ανάπτυξη της χρήσης της γενεσιουργού ΤΝ μπορεί να ελεγχθεί ή να ρυθμιστεί.

Κίνδυνοι ασφάλειας

Το ChatGPT παράγει συχνά λανθασμένες αλλά πιστευτές πληροφορίες που μπορούν να οδηγήσουν σε επικίνδυνες συνέπειες όταν οι συμβουλές του ακολουθούνται «τυφλά». Οι εγκληματίες του κυβερνοχώρου το χρησιμοποιούν για να βελτιώσουν και να επεκτείνουν τις επιθέσεις τους. Πολλοί πιστεύουν ότι ο μεγαλύτερος κίνδυνος είναι η περαιτέρω ανάπτυξή του, ή μάλλον η επόμενη γενιά γεννητικής τεχνητής νοημοσύνης.

Με όλες τις εξελίξεις της ΤΝ κατά το τελευταίο έτος, οι κίνδυνοι ασφαλείας γίνονται όλο και πιο σύνθετοι. Αυτό είναι εμφανές όταν εξετάζετε τόσο την αληθοφάνεια όσο και την επικινδυνότητά της.

Οι λύσεις Generative AI έχουν σχεδιαστεί για να παράγουν απαντήσεις που ακούγονται και φαίνονται εξαιρετικά αληθοφανείς, αλλά δεν χρειάζεται να είναι ακριβείς. Εκπαιδεύονται σε δεδομένα του διαδικτύου, και όπως γνωρίζουμε, δεν πρέπει να πιστεύει κανείς ό,τι διαβάζει στο διαδίκτυο.

Οι ειδικοί μπορούν να εντοπίσουν τις προφανώς λανθασμένες απαντήσεις, αλλά οι μη ειδικοί δεν θα καταλάβουν τη διαφορά. Από αυτή την άποψη, η παραγωγική ΤΝ μπορεί να χρησιμοποιηθεί ως όπλο για να κατακλύσει τον κόσμο με ψευδείς πληροφορίες. Αυτό είναι ένα θεμελιώδες ζήτημα με οποιαδήποτε λύση γεννητικής ΤΝ.

Περισσότερα ζητήματα προκύπτουν από την εγκληματική χρήση αυτών των εργαλείων. Για παράδειγμα, οι εγκληματίες του κυβερνοχώρου χρησιμοποιούν το ChatGPT για να παράγουν πολύ ρεαλιστικά μηνύματα ηλεκτρονικού ψαρέματος και διευθύνσεις URL για πλαστογραφημένους ιστότοπους.

Έχουμε εκπαιδευτεί να εντοπίζουμε τα μηνύματα ηλεκτρονικής απάτης και να εντοπίζουμε τις λεπτές γράμμες που χτυπούν το καμπανάκι όταν κάτι δεν πάει καλά, όπως το μήνυμα ηλεκτρονικού ταχυδρομείου από έναν μακρινό πρίγκιπα που ζητάει χρήματα. Τώρα, όμως, αυτό το email μπορεί να φαίνεται ότι προέρχεται από την οικογένειά σας, έναν φίλο ή συνάδελφό σας.

Το ChatGPT και άλλες λύσεις τεχνητής νοημοσύνης μπορούν να δημιουργήσουν μηνύματα ηλεκτρονικού ταχυδρομείου και διευθύνσεις URL για σκοπούς ηλεκτρονικής απάτης που φαίνονται και αισθάνονται αληθοφανείς, και οι εγκληματίες του κυβερνοχώρου εκμεταλλεύονται αυτή την εξαιρετικά επιβλαβή ικανότητα.

Πηγή: techradar.com