Εμφάνιση αναρτήσεων με ετικέτα Emily Bender. Εμφάνιση όλων των αναρτήσεων
Εμφάνιση αναρτήσεων με ετικέτα Emily Bender. Εμφάνιση όλων των αναρτήσεων

7 Σεπ 2025

Τεχνητή νοημοσύνη: Ο ενθουσιασμός ήταν πάντα ο τρόπος λειτουργίας της έρευνας στον τομέα της ΤΝ

  Τεχνητή νοημοσύνη

Τεχνητή νοημοσύνη: «Ο ενθουσιασμός ήταν πάντα ο τρόπος λειτουργίας της έρευνας στον τομέα της τεχνητής νοημοσύνης»

Σε ένα βιβλίο, η κοινωνιολόγος Alex Hanna και η γλωσσολόγος Emily M. Bender επικρίνουν τον ενθουσιασμό για την τεχνητή νοημοσύνη που τροφοδοτείται από υποσχέσεις σωτηρίας. Σε μια συνέντευξη, εξηγούν γιατί ακόμη και το αφεντικό του Open AI περιορίζει τις προσδοκίες - και γιατί ορισμένα μελλοντικά σενάρια διαβάζονται σαν κακή φαντασία θαυμαστών.

Daniel Hackbarth (Interview) Anica Lora Nižić (Illustration)

 

WOZ: Emily M. Bender, Alex Hanna, γνωρίζετε την εφημερίδα "AI 2027" που στοιχειώνει τα μέσα ενημέρωσης εδώ και λίγο καιρό; Προβλέπει ότι οι αναταραχές που προκαλούνται από την τεχνητή νοημοσύνη θα ξεπεράσουν σύντομα τη βιομηχανική επανάσταση.

Emily M. Bender: Είναι μια ιστοσελίδα, όχι μια εφημερίδα. Φαίνεται επιστημονικό, αλλά είναι μια κερδοσκοπική φαντασία. Αυτό παρουσιάζεται με πολλά μεμονωμένα στοιχεία που μπορείτε να ξεδιπλώσετε για να δείτε διαγράμματα και παρόμοια - αλλά αυτό που βλέπετε εκεί είναι κάτι το φανταστικό.

WOZ: Θα μπορούσατε να το αναπτύξετε αυτό; Δεν είναι μόνο σκοτεινοί κύκλοι στο Διαδίκτυο στους οποίους αυτό προκαλεί αναταραχή.

Alex Hanna: «AI 2027" γράφτηκε από τους Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland και Romeo Dean. Ανήκουν στο «ορθολογιστικό κίνημα», μια σχολή σκέψης ευρέως διαδεδομένη στην αμερικανική τεχνολογική βιομηχανία που στοχεύει στην προώθηση της χρήσης τεχνολογιών όπως η τεχνητή νοημοσύνη προς όφελος της ανθρωπότητας. Αυτοί δεν είναι επιστήμονες των οποίων οι υπολογισμοί βασίζονται σε εμπειρικά δεδομένα. Οι συγγραφείς χρησιμοποιούν όρους από τις μπεϋζιανές στατιστικές. Ωστόσο, αυτό περιλαμβάνει επίσης μια μεθοδολογία που πρέπει να τηρηθεί. Εδώ, με το πρόσχημα της στατιστικής γλώσσας, κάποια πιθανότητα αποδίδεται σε πράγματα που θα μπορούσαν να συμβούν στο μέλλον.

Οι κριτικοί τεχνολογίας

Η Emily M. Bender είναι καθηγήτρια γλωσσολογίας στο Πανεπιστήμιο της Ουάσιγκτον στο Σιάτλ. Η περιγραφή των chatbots ως «στοχαστικοί παπαγάλοι» έγινε γνωστή: η μεταφορά έχει σκοπό να δείξει ότι οι γεννήτριες κειμένου όπως το Chat GPT δεν είναι απλώς οποιεσδήποτε «ευφυΐες», αλλά προγράμματα που αναπαράγουν προηγουμένως τροφοδοτημένο κείμενο μέσω υπολογισμών πιθανοτήτων (βλ. WOZ No. 12/23).

Μεθοδολογικά, όλα αυτά είναι άχρηστα;

Χάνα: Όχι – μόνο το όριο για την υπολογιστική ισχύ, από το οποίο και πάνω υποτίθεται ότι έχουμε να κάνουμε με συνείδηση, καθορίστηκε εντελώς αυθαίρετα. Και όσο πιο πολύ προχωράει κανείς στην ιστοσελίδα, τόσο πιο συχνά συναντά απλές υποθέσεις. Δεν υπάρχει καμία συγκεκριμένη απόδειξη ότι η έρευνα στον τομέα της τεχνητής νοημοσύνης μπορεί να αυτοματοποιηθεί. Ακόμη και όσον αφορά τον αυτοματοποιημένο προγραμματισμό, δεν είναι δυνατόν να προσδιοριστεί προς το παρόν σε ποιο βαθμό τα μεγάλα γλωσσικά μοντέλα (LLM) θα αυξήσουν την παραγωγικότητα των ανθρώπων προγραμματιστών: ορισμένες μελέτες το υποδηλώνουν, ενώ άλλες το αμφισβητούν. Μια πολύ γνωστή μελέτη ενός ερευνητικού ινστιτούτου με το όνομα METR κατέληξε στο συμπέρασμα ότι, αν και οι προγραμματιστές πίστευαν ότι ήταν πιο παραγωγικοί με τη βοήθεια των LLMs, στην πραγματικότητα χρειάζονταν περισσότερο χρόνο όταν τα χρησιμοποιούσαν.

Bender: Γενικά, είναι λάθος να πιστεύουμε ότι τα ολοένα και μεγαλύτερα συστήματα δημιουργίας κειμένων θα αποκτήσουν κάποια στιγμή συνείδηση και θα επιταχύνουν ενεργά την πρόοδο. Το τελευταίο μαρτυρά μια λανθασμένη αντίληψη για το τι είναι η επιστήμη. Πιστεύουμε ότι η επιστήμη προχωράει με την παραγωγή επιστημονικών τεκμηρίων υπό μορφή άρθρων – και όχι μέσω της ανταλλαγής απόψεων μεταξύ της επιστημονικής κοινότητας. Από αυτό προέρχεται η ιδέα ότι οι εταιρείες τεχνητής νοημοσύνης εκπαιδεύουν αρχικά τις μηχανές τους με ανθρώπινο προσωπικό, αλλά στη συνέχεια οι ανθρώπινοι ερευνητές γίνονται περιττοί και οι μηχανές αναλαμβάνουν. Η επιστήμη δεν λειτουργεί έτσι. Το «AI 2027» μου φαίνεται σαν ένα κακό φτιαγμένο έργο φανταστικής λογοτεχνίας.

 

Alex Hanna, Emily Bender

WOZ: Σε ποιο βαθμό;

Bender: Στη φανταστική λογοτεχνία, οι συγγραφείς βασίζονται στο worldbuilding που έχουν δημιουργήσει άλλοι πριν από αυτούς: ο κόσμος και οι χαρακτήρες υπάρχουν ήδη – και τώρα χρησιμοποιούνται για να διηγηθεί κανείς τη δική του ιστορία. Η φανταστική λογοτεχνία μπορεί να είναι υπέροχη. Ωστόσο, το «AI 2027» μοιάζει με κακή φανταστική λογοτεχνία, επειδή βασικά στοιχεία της βρίσκονται ήδη στην αφήγηση που δημιουργούν οι προαναφερθέντες ορθολογιστές. Πολλά από αυτά προέρχονται από τον Σουηδό τρανσ-ανθρωπιστή Nick Bostrom. Έτσι, εδώ παρουσιάζεται κάτι ως πρόβλεψη, το οποίο στην πραγματικότητα είναι η επανάληψη μιας παλιάς ιστορίας.

Hanna: Αν συνεχίσουμε αυτή τη σκέψη, θα μπορούσαμε να πούμε ότι πρόκειται για μια κοινότητα θαυμαστών που μοιράζονται ιδεολογίες όπως ο «μακροπρόθεσμος ορίζοντας», ο οποίος πιστεύει ότι είναι αφιερωμένος στο μακροπρόθεσμο καλό της ανθρωπότητας, ή το «κίνημα του ορθολογισμού». Το ασυνήθιστο είναι ότι εδώ τα όρια της κοινότητας θαυμαστών έχουν ξεπεραστεί, στο βαθμό που η ιστοσελίδα έχει δημιουργήσει κάτι που ξαφνικά γίνεται αντιληπτό και εκτός αυτής. Ωστόσο, αυτό ήταν απόλυτα σκόπιμο. Και τώρα οι πολιτικοί υπεύθυνοι για τη λήψη αποφάσεων πιστεύουν επίσης ότι σύντομα θα συναντάμε παντού αυτοματοποιημένους πράκτορες. Πρόκειται όμως για εντελώς απατηλά σενάρια.





 

Alex Hanna, Foto: Will Toft

WOZ: Στο βιβλίο , επισημαίνετε ότι δεν είναι μόνο η επιστήμη που είναι λανθασμένη στη συζήτηση για την ΤΝ, επειδή δεν γίνεται αντιληπτή ως κοινωνική πρακτική. Το ίδιο ισχύει και για την τέχνη.

Bender: Η επιστήμη, η τέχνη ή και η δημοσιογραφία έχουν να κάνουν με τη δημιουργικότητα, αλλά θα μπορούσε επίσης να πει κανείς ότι πρόκειται για κοινωνικά εγχειρήματα. Μια κοινωνική πτυχή της τέχνης είναι ότι έχει να κάνει με τη μετάδοση εμπειριών. Ταυτόχρονα, οι καλλιτέχνες αναφέρονται στα έργα άλλων, στα οποία βασίζονται. Είναι ειρωνικό όταν εκείνοι που κλέβουν το έργο των καλλιτεχνών για να αναπτύξουν μηχανές δημιουργίας εικόνων ισχυρίζονται: «Η μηχανή μου μπορεί να κάνει το ίδιο με αυτούς!» Σε αυτό προστίθεται το πρόβλημα της ανθρωπομορφικής γλώσσας. Το «μηχανικό μάθημα» δεν είναι μάθηση με την πραγματική έννοια του όρου: ο αλγόριθμος δεν έχει καμία σχέση με τους ανθρώπους των οποίων την τέχνη τροφοδοτεί. Το να ονομάζουμε αυτό ως μαθησιακή διαδικασία και να υπονοούμε ότι η μηχανή κάνει το ίδιο με έναν καλλιτέχνη, αποανθρωποποιεί τον τελευταίο.

Hanna: Αναφερόμαστε στην κοινωνιολόγο Jennifer Lena, η οποία έχει διαπιστώσει ότι η καλλιτεχνική δραστηριότητα δεν είναι ένα ατομικό εγχείρημα, αλλά ότι πρόκειται πάντα για αναφορές στα έργα άλλων. Υπάρχουν πάντα γραμμές παράδοσης και μαθητείας. Μερικοί καλλιτέχνες κάνουν τέτοιες αναφορές παραθέτοντας άλλους. Ακόμα κι αν επικρίνετε κάτι, δείχνετε μια συγκεκριμένη μορφή σεβασμού. Αλλά αν τώρα έχετε εικόνες τύπου Ghibli που έχουν δημιουργηθεί με το Chat GPT, τότε αυτό δεν δείχνει σεβασμό για τον Hayao Miyazaki, τον ιδρυτή του Studio Ghibli. Επίσης, απέχει πολύ από το να αισθάνεται έτσι.

WOZ: Γράφετε ότι από την αρχή της έρευνας στον τομέα της τεχνητής νοημοσύνης υπήρχε ένας ενθουσιασμός γύρω από αυτήν. Πώς ήταν τότε;

Hanna: Ο όρος «τεχνητή νοημοσύνη» επινοήθηκε το καλοκαίρι του 1956 σε ένα εργαστήριο στο Dartmouth College στην πολιτεία του New Hampshire των ΗΠΑ. Οι επιστήμονες της πληροφορικής John McCarthy και Marvin Minsky είχαν προσκαλέσει ερευνητές για να ανταλλάξουν απόψεις σχετικά με τεχνολογίες που ομαδοποιήθηκαν υπό τον όρο «thinking machines» (μηχανές που σκέφτονται) και που αφορούσαν την αυτοματοποίηση, για παράδειγμα στην προγραμματιστική. Ο McCarthy πρότεινε να χρησιμοποιηθεί ο όρος «τεχνητή νοημοσύνη», ώστε να συγκεντρωθούν οι συμμετέχοντες υπό την ομπρέλα ενός κοινού όρου. Ταυτόχρονα, ήθελε να διαχωριστεί από τον Norbert Wiener, ο οποίος ερευνούσε στον τομέα της κυβερνητικής, που επικεντρωνόταν στα συστήματα ελέγχου. Ο McCarthy τόνισε λοιπόν την πτυχή της «σκέψης». Στη συνέχεια, ο Minsky έγραψε ένα άρθρο, σύμφωνα με το οποίο όλα όσα συμβαίνουν στον εγκέφαλο μπορούν να αναπαραχθούν με μηχανικά μέσα. Αυτό προσέλκυσε μεγάλη προσοχή, ακόμη και από την πλευρά του στρατιωτικο-βιομηχανικού συμπλέγματος. Δημιουργήθηκε μια νοοτροπία ανταγωνισμού: θεωρούσαν ότι έπρεπε οπωσδήποτε να είναι καλύτεροι από τους Σοβιετικούς σε αυτόν τον τομέα – όπως συμβαίνει σήμερα στον ανταγωνισμό με την Κίνα. Επιπλέον, άνθρωποι όπως ο Minsky δεν ενδιαφέρονταν για την ορθή πρακτική των αναφορών. Αντ' αυτού, ο τρόπος λειτουργίας τους ήταν η υπερβολή.

WOZ: Στο βιβλίο, τονίζετε επίσης τη σημασία του Joseph Weizenbaum. Ποιος ήταν αυτός;

Bender: Ο Weizenbaum ήταν ένας από τους ιδρυτές της υπολογιστικής γλωσσολογίας. Έγραψε ένα πρόγραμμα κοινώς γνωστό ως «Ελίζα», με την Ελίζα να είναι μόνο μία παραλλαγή αυτού του προγράμματος. Ήταν ένας προσομοιωτής συνομιλίας που δημιουργήθηκε για να παράγει γραμματικά σωστές προτάσεις που αισθάνονται σχετικές με το άτομο που χειρίζεται το πρόγραμμα. Σε αντίθεση με το Chat GPT σήμερα, το Eliza δεν βασίζεται σε πολύ μεγάλα σύνολα δεδομένων, αλλά ακολουθεί μερικούς κανόνες. Εάν πληκτρολογήσετε κάτι για ένα μέλος της οικογένειας, ενεργοποιεί μια πρόταση όπως: «Ω, πες μου περισσότερα για τη μητέρα σου». Το Eliza σχεδιάστηκε για να μιμείται τον τρόπο που λειτουργεί ένας ψυχοθεραπευτής – απλά επειδή μια θεραπευτική κατάσταση ήταν πρακτική για σκοπούς επίδειξης. Το λογισμικό δεν χρειάζεται καμία γνώση του κόσμου για τη διεξαγωγή συνομιλιών, επειδή όλα καταλήγουν σε προτάσεις όπως: "Λυπάμαι που αισθάνεστε έτσι. Πες μου περισσότερα». Αργότερα, ο Weizenbaum έγραψε μερικά σημαντικά έργα επειδή σοκαρίστηκε από την ανταπόκριση στην Eliza.

WOZ: Πώς ήταν;

Bender: Υπάρχει ένα ανέκδοτο για τη γραμματέα του, της οποίας η ταυτότητα είναι δυστυχώς άγνωστη. Η γραμματέας κάποτε έδιωξε τον Weizenbaum από το δωμάτιο όταν αυτή αλληλεπιδρούσε με το σύστημα, επειδή δεν ήθελε να ακούσει μια ιδιωτική συνομιλία. Ο Weizenbaum έδειξε στους ανθρώπους που είχαν αλληλεπιδράσει με το σύστημα τον κώδικά του: σκέφτηκε ότι όταν είδαν πώς λειτουργούσε, η ψευδαίσθηση ότι είχαν πραγματικά να κάνουν με ένα άτομο εξαφανίστηκε. Αλλά αυτό δεν συνέβη. Ο Weizenbaum έγινε οξύς επικριτής της έρευνας για την τεχνητή νοημοσύνη, αλλά και των στόχων που επιδιώκει γενικά η αυτοματοποίηση. Δυστυχώς, οι προειδοποιήσεις του δεν εισακούστηκαν σε μεγάλο βαθμό.

WOZ: Στην πραγματικότητα, απίστευτα ποσά εισρέουν στην ανάπτυξη της τεχνητής νοημοσύνης. Δεν έχετε καμία αμφιβολία ότι πρέπει να υπάρχει κάτι σε αυτό που αποκαλείτε "διαφημιστική εκστρατεία";

Bender: Όχι, δεν έχω καμία αμφιβολία γι 'αυτό. Υπάρχει ένας μύθος ότι οι άνθρωποι με πολλά χρήματα έχουν πολλά χρήματα επειδή είναι ιδιαίτερα έξυπνοι. Αλλά δεν είναι. Αυτοί οι άνθρωποι δεν καταλαβαίνουν αυτή την τεχνολογία καλύτερα από οποιονδήποτε άλλο. Αντίθετα, παρατηρούμε ότι εκείνοι που θέλουν να αντικαταστήσουν θέσεις εργασίας κατά δεκάδες, δεν έχουν ιδέα για την εργασία που θέλουν να καταστήσουν περιττή.

WOZ: Ο ίδιος ο διευθυντής της Open AI, Sam Altman, ανέφερε πρόσφατα ότι ενδέχεται να συμβεί μια κατάρρευση, επειδή η φούσκα της τεχνητής νοημοσύνης έχει μεγαλώσει υπερβολικά.

Hanna: Ο Altman παίζει με ασφάλεια, επειδή γνωρίζει ότι το φαινόμενο έχει υπερβολικά διογκωθεί. Ωστόσο, δεν λέει: «Παρακαλώ, επενδύστε λιγότερα!». Απλώς ζητά περισσότερο χρόνο για να υλοποιήσει τις υποσχέσεις του. Αν τελικά συμβεί η κατάρρευση, θα πει: «Σας προειδοποίησα!». Αλλά είναι πραγματικά ανησυχητικό το πόσα χρήματα ρέουν και το πώς ολόκληρη η οικονομία επικεντρώνεται σε αυτόν τον ένα τομέα. Θα περίμενε κανείς ότι έχουν αντληθεί διδάγματα από προηγούμενους κύκλους της χρηματιστηριακής αγοράς. Δυστυχώς, όμως, αυτό δεν ισχύει.

WOZ: Εμμέσως, ο Altman προτείνει ότι η AI είναι παρόμοια με το Διαδίκτυο, το οποίο αναμφίβολα προκάλεσε τεράστιες αναταραχές, ακόμα κι αν υπήρξε η κατάρρευση του dotcom ...

Bender: Αυτό ακούγεται σαν ένας ρητορικός ελιγμός για να οδηγήσει σε περισσότερες επενδύσεις - σε μια εποχή που νέες μελέτες αρνούνται ότι αυτά τα συστήματα βελτιώνουν σταθερά την παραγωγικότητα. Το Διαδίκτυο έχει αποδειχθεί χρήσιμο, ακόμη και αν υπήρξε συντριβή. Αλλά αυτό δεν μας λέει τίποτα για τα οφέλη της λεγόμενης τεχνητής νοημοσύνης, ένας όρος που δεν είναι ένα συνεκτικό σύνολο τεχνολογιών. Αυτό που θέλει να πουλήσει ο Altman είναι τα LLM(Large language model Type of machine learning model) : θέλει να τα δει τόσο πανταχού παρόντα όσο είναι σήμερα το Διαδίκτυο. Αλλά αυτό έχει δικτυώσει τους ανθρώπους μεταξύ τους. Τα LLM, από την άλλη πλευρά, αφορούν τη διακοπή των σχέσεων μεταξύ των ανθρώπων.

WOZ: Στην περίπτωση του Διαδικτύου, θα μπορούσε κανείς να υποστηρίξει ότι έχει επιδεινώσει ορισμένα πράγματα, αν σκεφτούμε για παράδειγμα τις εξαιρετικά επισφαλείς συνθήκες εργασίας.

Hanna: Σίγουρα δεν είναι έτσι ότι το Διαδίκτυο είναι κάτι απολύτως θετικό: έχει εξελιχθεί προς την κατεύθυνση της πλατφορμοποίησης ή έχει καταστήσει δυνατή την εξωτερική ανάθεση εργασιακών διαδικασιών. Παρ' όλα αυτά, πολλοί πιστεύουν ότι το Διαδίκτυο είναι κάτι θετικό σε όλα τα επίπεδα – ή τουλάχιστον ότι πριν από τις πλατφόρμες υπήρχε ένα είδος άγριου δικτύου, στο οποίο όλοι συνδέονταν οργανικά μεταξύ τους. Αυτό δεν ήταν ποτέ το αλήθεια, το Διαδίκτυο ήταν πάντα συνδεδεμένο με αποκλεισμούς. Η διαφορά με σήμερα είναι ότι στο Διαδίκτυο μπορούσαν να διακριθούν από νωρίς χρήσιμες εφαρμογές, για παράδειγμα στην οικοδόμηση κοινοτήτων και στη δικτυωμένη συνεργασία. Αν κοιτάξουμε τα LLM, δεν διακρίνονται πολλά παραδείγματα όπου αυτά θα ήταν απαραίτητα χρήσιμα στις εργασιακές διαδικασίες των ανθρώπων ή θα προωθούσαν τη δικτύωση των ανθρώπων. Θα πρέπει μάλλον να εξετάσουμε ποιες μορφές απομόνωσης δημιουργεί αυτή η τεχνολογία.

WOZ: Θα μπορούσατε να μας περιγράψετε εν συντομία πώς λειτουργούν τα chatbots;

Bender: Η γλωσσολογία είναι χρήσιμη σε αυτό το σημείο. Πρόκειται για τη μελέτη του τρόπου λειτουργίας της γλώσσας και του τρόπου με τον οποίο την χρησιμοποιούμε. Η υπολογιστική γλωσσολογία, από την άλλη πλευρά, ασχολείται με τον τρόπο με τον οποίο οι υπολογιστές μπορούν να λειτουργούν με τη φυσική γλώσσα. Τι κάνουν λοιπόν τα γλωσσικά μοντέλα; Μια διαπίστωση της γλωσσολογίας – που ανάγεται σε εργασίες του Ferdinand de Saussure πριν από πάνω από εκατό χρόνια – είναι ότι οι γλώσσες είναι συστήματα σημείων. Η γλώσσα περιλαμβάνει τόσο τη μορφή, δηλαδή τον τρόπο με τον οποίο γράφεται και προφέρεται μια λέξη, όσο και το νόημα: είτε αυτό που έχει συμφωνηθεί μέσα σε μια γλωσσική κοινότητα, είτε αυτό στο οποίο αναφέρεται ο ομιλητής με τη λέξη. Η γλώσσα συνδυάζει πάντα και τις δύο πτυχές – τη μορφή και το νόημα.

WOZ: Και στα γλωσσικά μοντέλα;

Bender: Αυτά μοντελοποιούν μόνο τη μορφή, δηλαδή ποιες λέξεις εμφανίζονται σε μια συγκεκριμένη θέση. Αυτό μπορεί να γίνει κατανοητό με βάση το σύστημα T9, το οποίο παλαιότερα διευκόλυνε τη σύνταξη μηνυμάτων σε κινητά τηλέφωνα. Το T9 βασιζόταν σε ένα γλωσσικό μοντέλο μονογράμματος. Για το σκοπό αυτό, συλλέγονταν μια συγκεκριμένη ποσότητα δεδομένων εκπαίδευσης και τα χωρίζαμε σε μεμονωμένες λέξεις, των οποίων μετρούσαμε τη συχνότητα. Αν μέχρι τότε θέλαμε να γράψουμε ένα SMS στο παλιό μας κινητό με πλήκτρα, κάθε ένα από τα εννέα ψηφία αντιστοιχούσε σε τρία γράμματα, ένα μάλιστα σε τέσσερα. Έτσι, συχνά έπρεπε να πατάμε ένα πλήκτρο πολλές φορές για να βρούμε το γράμμα που θέλαμε. Με το T9, αντίθετα, αρκούσε να πατήσετε κάθε πλήκτρο μόνο μία φορά, επειδή το πρόγραμμα προσδιόριζε τις πιθανές λέξεις που προέκυπταν από τα πλήκτρα που πατήσατε. Ωστόσο, η συχνότητα κάθε λέξης προσδιοριζόταν μεμονωμένα. Στα αγγλικά, οι λέξεις «home» και «good» απαιτούσαν την ίδια ακολουθία αριθμών, αλλά η λέξη «good» ήταν η πιο συχνά χρησιμοποιούμενη. Αυτό είχε ως αποτέλεσμα ότι ακόμη και σε ένα πλαίσιο όπου η λέξη «home» θα ήταν σαφώς η λογική επιλογή – για παράδειγμα στη φράση «I will see you at …» – το γλωσσικό μοντέλο T9 πρότεινε πρώτα τη λέξη «good». Έπρεπε να επιλέξει κανείς χειροκίνητα την επόμενη πρόταση.

WOZ: Πώς αναπτύχθηκε περαιτέρω;

Bender: Για το επόμενο βήμα ανάπτυξης, χρησιμοποιήθηκε το μοντέλο bigram. Καθόρισαν πόσο πιθανό είναι μια λέξη να ακολουθείται από αυτή ή εκείνη τη λέξη. Έτσι λειτουργεί ένα γλωσσικό μοντέλο στον πυρήνα του. Για κάτι σαν το σύστημα T9, αυτό είναι πολύ χρήσιμο. Χρησιμοποιείται επίσης για αυτόματη μεταγραφή και γενικά όπου θέλετε να ταξινομήσετε σειρές χαρακτήρων. Τα μεγάλα γλωσσικά μοντέλα βασίζονται σε πολύ πιο εκτεταμένα σύνολα δεδομένων. Αυτό δεν αποτελεί πρόβλημα από μόνο του, αλλά τώρα είναι τόσο μεγάλα που δεν γνωρίζουμε πλέον τι ακριβώς περιέχεται σε αυτά. Το πραγματικό πρόβλημα, ωστόσο, είναι ότι μεγάλα γλωσσικά μοντέλα χρησιμοποιούνται για την παραγωγή συνθετικού κειμένου.

WOZ: Γιατί αυτό είναι πρόβλημα;

Bender: Εδώ μπαίνει στο παιχνίδι ένα δεύτερο δίδαγμα από τη γλωσσολογία: όταν κατανοούμε μια σειρά λέξεων, θα μπορούσε κανείς να σκεφτεί ότι αυτό συμβαίνει επειδή κάποιος έχει εκφράσει αυτές τις λέξεις με μια συγκεκριμένη σειρά, προκειμένου να μεταφέρει ένα μήνυμα μέσα από αυτές τις λέξεις, το οποίο εμείς, ως αποδέκτες, «απο-συσκευάζουμε» κατά κάποιον τρόπο. Ωστόσο, η γλωσσική μας κατανόηση δεν λειτουργεί έτσι. Αντίθετα, ρωτάμε ενστικτωδώς: Τι ξέρω για τον ομιλητή; Τι κοινό υπόβαθρο μοιραζόμαστε; Τι πιστεύω ότι ο ομιλητής νομίζει ότι γνωρίζει για τους αποδέκτες του μηνύματός του; Από αυτά τα στοιχεία εξάγουμε συμπεράσματα, τα οποία λαμβάνουμε υπόψη όταν θέλουμε να κατανοήσουμε τι ήθελε να μας μεταδώσει αυτός ο άνθρωπος, επιλέγοντας ακριβώς αυτές τις λέξεις με αυτή τη σειρά. Έτσι, πάντα φανταζόμαστε έναν νου πίσω από το κείμενο που λαμβάνουμε – έτσι ερμηνεύουμε τη γλώσσα. Όταν έχουμε να κάνουμε με συνθετικό κείμενο, το ερμηνεύουμε ενστικτωδώς με τον ίδιο τρόπο. Εδώ, όμως, δεν υπάρχει νους που να είναι υπεύθυνος για το κείμενο: αυτό είναι που κρύβεται πίσω από το φαινόμενο Eliza που αναφέρθηκε παραπάνω.

WOZ: Ωστόσο, αυτό που φτύνουν προς τα εξω τα chatbots είναι πολύ πιο εντυπωσιακό από το σύστημα T9: Συχνά παίρνετε ένα κείμενο που μοιάζει με εγκυκλοπαίδεια, όμορφα δομημένο και γραφικά προετοιμασμένο.

Hanna:  Αυτά που σου δίνουν τα Chat GPT μπορεί να φαίνονται εντυπωσιακά. Ωστόσο, αυτό οφείλεται σε αυτό που οι προγραμματιστές έχουν κλέψει αλλού για τα δεδομένα εκπαίδευσής τους. Συνολικά, αυτό έχει ως αποτέλεσμα ένα εντυπωσιακό αποτέλεσμα, αλλά δεν υπάρχει διαφάνεια ως προς την πραγματική προέλευση των δεδομένων. Μπορείτε να βρείτε αναφορές, αλλά μερικές φορές αυτές είναι ψευδείς ή πλασματικές.

WOZ: Το βιβλίο αναφέρεται επίσης στους «AI booster» και στους «AI doomer»: οι πρώτοι πιστεύουν ότι η τεχνητή νοημοσύνη θα μας προσφέρει ένα λαμπρό μέλλον. Οι δεύτεροι προειδοποιούν για μηχανές που θα μπορούσαν να στραφούν εναντίον του ανθρώπου. Πώς σχετίζονται μεταξύ τους αυτές οι δύο ομάδες;

Bender: Μπορούμε να σκεφτούμε την ιστοσελίδα που αναφέρθηκε στην αρχή, η οποία αποτελεί ένα παράδειγμα «AI doomerism». Οι συγγραφείς παρουσιάζονται ως αντίθετοι των Boostern. Αλλά πρόκειται για τις δύο όψεις του ίδιου νομίσματος. Οι υποστηρικτές λένε: η τεχνητή νοημοσύνη είναι μια αναπόφευκτη πρόοδος, που βρίσκεται λίγο πριν από τεράστιες ανακαλύψεις, οι οποίες θα λύσουν όλα τα προβλήματά μας. Οι καταστροφολόγοι λένε: η τεχνητή νοημοσύνη είναι μια αναπόφευκτη πρόοδος, που βρίσκεται λίγο πριν από τεράστιες ανακαλύψεις και θα μας σκοτώσει όλους. Πρόκειται για την ίδια αφήγηση, μόνο με δύο αντίθετες καταλήξεις.

Hanna: Ταυτόχρονα, αυτό παραμορφώνει την εικόνα του πραγματικού φάσματος των επιλογών δράσης. Πέρα από τις καταστροφικές προβλέψεις και τις υποσχέσεις σωτηρίας, υπάρχουν πολύ διαφορετικές θέσεις που μπορεί κανείς να πάρει: Μπορεί, για παράδειγμα, να είναι απλά ενοχλητικό το γεγονός ότι η τεχνητή νοημοσύνη ενσωματώνεται σε όλα τα δυνατά πράγματα, επειδή απλά δεν είναι απαραίτητο.

Ετικέτες