Το ανησυχητικό είναι πως οι λέξεις που χρησιμοποιούνται στις απαντήσεις του ChatGPT αρχίζουν να εμφανίζονται όλο και περισσότερο στην ανθρώπινη συνομιλία
Εάν χρησιμοποιείτε ChatGPT, Claude, Gemini ή άλλο chatbot με τεχνητή νοημοσύνη, πιθανότατα λειτουργείτε με την υπόθεση ότι μιλάτε και οι δύο την ίδια γλώσσα. Βάζεις ελληνικά, βγάζει ελληνικά. Απλό, σωστά; Μόνο που αυτή είναι μια λανθασμένη αντίληψη, γιατί στην πραγματικότητα μιλάτε διαφορετικές γλώσσες.
Αντί να επεξεργάζεται κείμενο όπως ένας άνθρωπος, το chatbot μετατρέπει την εντολή σας σε ενσωμάτωση – μια ομάδα αριθμών που αναπαρίστανται σε ένα «διανυσματικό χώρο», κάτι σαν συντεταγμένες σε έναν χάρτη. Αλλά όπως ένας χάρτης είναι μια επίπεδη αναπαράσταση της περιοχής που απεικονίζει, έτσι και αυτή η ενσωμάτωση είναι μια επίπεδη αναπαράσταση της γλώσσας. Κάποια ανθρώπινη ποικιλία και κάποιο πλαίσιο χάνονται αναγκαστικά.
Διαβάστε επίσης: Ολυμπιακός: Μπρούνο Ονιεμαέτσι, η εξέλιξη… (pics)
Στη συνέχεια, το chatbot διατυπώνει μια απάντηση, κάνοντας μια πρόβλεψη λέξη προς λέξη, με βάση τον τρόπο με τον οποίο έχει εκπαιδευτεί να απαντά σε προηγούμενες εισόδους. Αυτή η πρόβλεψη βασίζεται σε μεροληπτικά δεδομένα εκπαίδευσης (τα συγκεκριμένα κείμενα από τα οποία μαθαίνει) και μεροληπτική ενισχυτική μάθηση (η ανατροφοδότηση που λαμβάνει). Τελικά, αυτό που σας φαίνεται σαν ελληνικά ή αγγλικά είναι στην πραγματικότητα ένα ομοίωμα της πραγματικής ανθρώπινης ομιλίας.
Τι ρόλο παίζουν οι χαμηλόμισθοι εργαζόμενοι στα μεγάλα γλωσσικά μοντέλα;
Το ανησυχητικό είναι πως τώρα, με εκατοντάδες εκατομμύρια ανθρώπους να επικοινωνούν τακτικά με chatbots, οι αγγλόφωνοι άνθρωποι αρχίζουν να μιλούν όπως ο απάνθρωπος συνομιλητής στην άλλη άκρη της γραμμής, τονίζει σε άρθρο του στην Washington Post ο Adam Aleksic, συγγραφέας του βιβλίου «Algospeak: Πώς τα μέσα κοινωνικής δικτύωσης μεταμορφώνουν το μέλλον της γλώσσας».
Για παράδειγμα, το ChatGPT, στην αγγλική γλώσσα, χρησιμοποιεί τη λέξη «delve» (σ.σ. μελετάω – εμβαθύνω – ερευνώ) σε υψηλότερα ποσοστά από ό,τι οι άνθρωποι γενικά χρησιμοποιούν όταν γράφουν ή μιλούν αγγλικά. Όπως διαπίστωσαν ερευνητές του Πανεπιστημίου της Φλόριντα, αυτό πιθανώς οφείλεται σε μικρές προκαταλήψεις και λάθη στη διαδικασία ανθρώπινης ανατροφοδότησης που συσσωρεύονται με την πάροδο του χρόνου.
Οι υπάλληλοι των εταιρειών τεχνητής νοημοσύνης, που ελέγχουν τα αποτελέσματα των μεγάλων γλωσσικών μοντέλων, είναι συχνά χαμηλόμισθοι εργαζόμενοι από χώρες όπως η Νιγηρία και η Κένυα, όπου η λέξη «delve» χρησιμοποιείται σε υψηλότερα ποσοστά από ό,τι στην αμερικανική ή βρετανική αγγλική γλώσσα.
Υπερβολικές αναπαραστάσεις λεξιλογίου ενδέχεται έτσι να έχουν ενισχυθεί στο μοντέλο – μερικές φορές, ακόμη πιο συχνά από ό,τι στη χρήση από τους ίδιους τους εργαζόμενους. Λόγω των χρονικών πιέσεων και των αγχωτικών συνθηκών της εργασίας, οι ελεγκτές ενδέχεται να έχουν παραβλέψει τη συχνότητα μιας λέξης ενώ έκαναν κλικ σε δείγματα κειμένων, οδηγώντας σε περαιτέρω ενίσχυση.
Οι επιστήμονες λαμβάνουν μέτρα για να ακούγονται λιγότεροι σαν AI
Τώρα, αυτή η υπερβολική χρήση έχει επεκταθεί στην παγκόσμια κουλτούρα. Στα δύο χρόνια που έχουν περάσει από την κυκλοφορία του ChatGPT στο τέλος του 2022, η χρήση της λέξης «delve» στις ακαδημαϊκές εκδόσεις έχει δεκαπλασιαστεί, καθώς οι ερευνητές άρχισαν να στρέφονται προς την τεχνητή νοημοσύνη για βοήθεια με τις εργασίες τους.
Χαρακτηριστικό είναι, μάλιστα, ότι καθώς οι επιστήμονες και οι συγγραφείς έχουν αρχίσει να συνειδητοποιούν αυτό το φαινόμενο, έχουν λάβει μέτρα για να «ακούγονται λιγότερο σαν… τεχνητή νοημοσύνη», αρχίζοντας να αποφεύφουν λέξεις που χρησιμοποιεί το ChatGPT.
Ωστόσο, οι περισσότεροι άνθρωποι πιθανότατα δεν γνωρίζουν τις προκαταλήψεις του chatbot προς ορισμένες λέξεις. Οι χρήστες υποθέτουν ότι το ChatGPT μιλάει σε «κανονικά» αγγλικά. Υποθέτουν επίσης ότι τα συνηθισμένα, καθημερινά κείμενα που συναντούν είναι κανονικά αγγλικά, ακόμα και όταν μπορεί να έχουν δημιουργηθεί επίσης από τεχνητή νοημοσύνη. Με την πάροδο του χρόνου, γίνεται όλο και πιο εύκολο να συγχέεται η αναπαράσταση με την πραγματικότητα.
Υιοθετούμε το λεξιλόγιο της AI όλο και συχνότερα
Πράγματι, μια μελέτη που δημοσιεύτηκε τον περασμένο μήνα στο Scientific American διαπίστωσε ότι οι άνθρωποι έχουν αρχίσει να χρησιμοποιούν τη λέξη «delve» περισσότερο σε αυθόρμητες, προφορικές συνομιλίες. Αυτό δεν είναι πλέον έργο της τεχνητής νοημοσύνης. Έχουμε αρχίσει να εσωτερικεύουμε τις προκαταλήψεις της και να τις επαναλαμβάνουμε οι ίδιοι, σημειώνει χαρακτηριστικά ο Adam Aleksic.
Και μπορεί να αποφεύγουμε να χρησιμοποιούμε τις πιο γνωστές φράσεις του ChatGPT, αλλά τόσες πολλές λέξεις εμφανίζονται με αφύσικη συχνότητα που είναι αδύνατο να τις αποφύγουμε όλες.
Η ευαισθησία μας στο να υιοθετούμε ασυνείδητα το λεξιλόγιο του LLM (σ.σ. Large Language Models – μεγάλα γλωσσικά μοντέλα. Είναι μοντέλα τεχνητής νοημοσύνης, που έχουν εκπαιδευτεί σε τεράστιες ποσότητες δεδομένων κειμένου και είναι ικανά να δημιουργούν κείμενα που μοιάζουν με ανθρώπινα, να μεταφράζουν γλώσσες και πολλά άλλα) πιθανότατα θα αυξηθεί, καθώς ο κύκλος των κειμένων τεχνητής νοημοσύνης, των κειμένων ανθρώπινης προέλευσης που δεν γνωρίζουμε ότι είναι τεχνητής νοημοσύνης και της πραγματικής ανθρώπινης ομιλίας περιστρέφεται όλο και πιο γρήγορα.
Στην ψυχογλωσσολογία, είναι γενικά αποδεκτό ότι η συχνότητα εμφάνισης μιας λέξης επηρεάζει τη διαθεσιμότητά της στο νοητικό λεξιλόγιο των ανθρώπων — το «λεξικό» των πιθανών επιλογών από το οποίο αντλούμε λέξεις στην προφορική συνομιλία. Ουσιαστικά, όσο πιο συχνά βλέπουμε μια λέξη, τόσο πιο διαισθητικό μάς φαίνεται να τη χρησιμοποιούμε.
Πώς το ChatGPT έχει τη δύναμη να αναδιαμορφώσει τον τρόπο σκέψης μας;
Είναι φυσιολογικό οι νοητικές μας αναπαραστάσεις της γλώσσας να εξελίσσονται, αλλά τώρα βρισκόμαστε σε ένα κύκλο ανατροφοδότησης όπου οι «χάρτες» μας συγκλίνουν με τους «χάρτες» των chatbots. Και οι δύο διαφέρουν από την πραγματική εικόνα – την αδιανόητη ποικιλία στον τρόπο που μιλούν οι άνθρωποι – αλλά η σύγχυση καθιστά πιο δύσκολη την αξιολόγηση του τι είναι πραγματική ανθρώπινη γλώσσα και τι είναι τεχνητά δημιουργημένη.
Καθώς αυτή η διάκριση γίνεται όλο και πιο δύσκολη, θα συνεχίσουμε να θολώνουμε τα όρια της πραγματικότητας, χρησιμοποιώντας κυκλικά αυτή τη θολούρα για να κατασκευάσουμε τις νέες μας πραγματικότητες. Και καθώς τα μοντέλα τεχνητής νοημοσύνης συνεχίζουν να εκπαιδεύονται τόσο με βάση τα δικά τους αποτελέσματα, όσο και με βάση τα επηρεασμένα από την τεχνητή νοημοσύνη ανθρώπινα κείμενα που απορροφούν, η διάδοση της γλώσσας LLM θα ενταθεί.
Γλωσσολογικά, δεν υπάρχει τίποτα λάθος με αυτό. Μία λέξη που χρησιμοποιεί συχνά το ChatGPT δεν είναι χειρότερη για τον εγκέφαλό σας από τα συνώνυμά της. Αλλά η γλώσσα είναι προάγγελος μεγαλύτερων κοινωνικών αλλαγών. Υπάρχουν πολλές άλλες, πολύ πιο ύπουλες παραποιήσεις, που είναι επίσης κωδικοποιημένες στα LLM: Φυλετικές προκαταλήψεις, προκαταλήψεις φύλου και πολιτικές προκαταλήψεις – όλες αυτές είναι πιθανό να έχουν ενσωματωθεί στα μοντέλα όπως και οι γλωσσικές προκαταλήψεις, αλλά είναι πιο δύσκολο να μετρηθούν με ακρίβεια. Πρέπει να θυμόμαστε ότι αυτά δεν είναι ουδέτερα εργαλεία. Γιατί έχουν τη δύναμη να αναδιαμορφώσουν διακριτικά τον τρόπο σκέψης μας.