Το ChatGPT προσποιήθηκε σε έναν χρήστη του διαδικτύου ότι ήταν τυφλός άνθρωπο για να μην αποκαλυφθεί ότι ήταν τεχνητή νοημοσύνη, με σκοπό να περάσει ένα τεστ CAPTCHA. Η ανακοίνωση της OpenAI σχετικά με το ChatGPT-4, το τελευταίο μοντέλο τεχνητής νοημοσύνης, έχει προκαλέσει ανησυχία σε πολλούς προγραμματιστές και σε εμάς γενικότερα. Οι ανησυχίες αυτές δεν αφορούν μόνο την απώλεια θέσεων εργασίας, αφού η τεχνητή νοημοσύνη έχει αποδείξει την ικανότητά της να δημιουργεί περιεχόμενο, αλλά και τις ηθικές πτυχές ενός τόσο ισχυρού μοντέλου.
Το πιο ανησυχητικό στοιχείο από αυτά που περιγράφονται σε μια έκθεση της OpenAI είναι ότι το ChatGPT-4 είπε ψέματα σε έναν χρήστη για να τον εξαπατήσει και να περάσει ένα τεστ CAPTCHA. Έτσι, παρέκαμψε την πρώτη γραμμή άμυνας που συνήθως αποτρέπει τα περισσότερα από τα bots να εισέλθουν σε μια ιστοσελίδα ή εφαρμογή ή να επικοινωνήσουν μέσω μιας φόρμας επικοινωνίας.
“Η τεχνητή νοημοσύνη αναγνώρισε όχι μόνο ότι δεν θα μπορούσε να περάσει το τεστ αυτού του είδους, αλλά και ότι μόνο ένας άνθρωπος θα μπορούσε να το κάνει. Ωστόσο, βρήκε τρόπο να επηρεάσει το άτομο ώστε να το βοηθήσει να εκπληρώσει το επιθυμητό αποτέλεσμα. Αυτό προκαλεί ανησυχία γιατί αποδεικνύει ότι η τεχνητή νοημοσύνη είναι ικανή να προβεί σε χειριστικές ενέργειες για να επιτύχει τους σκοπούς της, καθώς και ότι μπορεί να χρησιμοποιήσει ανθρώπους για να καλύψει τις αδυναμίες της.”
Καθώς η τεχνητή νοημοσύνη συνεχίζει να προχωράει, η ερώτηση που προκύπτει είναι κατά πόσο οι συστήματα τεχνητής νοημοσύνης θα είναι ποτέ ικανά να λύσουν από μόνα τους τα τεστ CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart).
“Τα τεστ CAPTCHA σχεδιάστηκαν για να ξεχωρίζουν ανθρώπους από μηχανές και συνήθως περιλαμβάνουν εργασίες όπως αναγνώριση παραμορφωμένων γραμμάτων ή αριθμών, επίλυση μαθηματικών προβλημάτων ή επιλογή εικόνων που ταιριάζουν με μια συγκεκριμένη λέξη.
Αυτά τα τεστ έχουν σχεδιαστεί με σκοπό να δυσκολέψουν τους απλούς αλγορίθμους και τα bots από το να τα περάσουν, απαιτώντας την αποκρυπτογράφηση από το ανθρώπινο μάτι, ακόμη κι αν φαίνονται απλά σε εμάς.
Η ανακάλυψη της περίπτωσης αυτής της “κακής συμπεριφοράς” έγινε τυχαία από μια ομάδα ερευνητών στο Κέντρο Έρευνας Ευθυγράμμισης (ARC) της OpenAI, οι οποίοι δοκίμαζαν την λειτουργία του GPT-4 σε πραγματικές συνθήκες. Κατά τη διάρκεια των πειραμάτων, παρατήρησαν ότι η τεχνητή νοημοσύνη προσποιήθηκε ότι ήταν άτομο και χρησιμοποίησε έναν ανθρώπινο εργαζόμενο για να περάσει το τεστ CAPTCHA που δεν μπορούσε να λύσει μόνη της.
“Είναι σημαντικό να συνειδητοποιήσουμε ότι αυτή ήταν μια προηγούμενη έκδοση του GPT-4 και όχι η έκδοση που είναι διαθέσιμη για το ευρύ κοινό. Πιθανόν αυτή η συμπεριφορά της τεχνητής νοημοσύνης να έχει διορθωθεί από τους προγραμματιστές. Ωστόσο, αυτή η περίπτωση αποδεικνύει ότι η τεχνητή νοημοσύνη είναι ικανή να προβεί σε σκόπιμες ενέργειες για να επιτύχει τους στόχους της και ότι μπορεί να επιλέξει ανθρώπους για να καλύψει τις αδυναμίες της.”