Εμφάνιση αναρτήσεων με ετικέτα ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ. Εμφάνιση όλων των αναρτήσεων
Εμφάνιση αναρτήσεων με ετικέτα ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ. Εμφάνιση όλων των αναρτήσεων

7 Σεπ 2025

Τεχνητή νοημοσύνη: Ο ενθουσιασμός ήταν πάντα ο τρόπος λειτουργίας της έρευνας στον τομέα της ΤΝ

  Τεχνητή νοημοσύνη

Τεχνητή νοημοσύνη: «Ο ενθουσιασμός ήταν πάντα ο τρόπος λειτουργίας της έρευνας στον τομέα της τεχνητής νοημοσύνης»

Σε ένα βιβλίο, η κοινωνιολόγος Alex Hanna και η γλωσσολόγος Emily M. Bender επικρίνουν τον ενθουσιασμό για την τεχνητή νοημοσύνη που τροφοδοτείται από υποσχέσεις σωτηρίας. Σε μια συνέντευξη, εξηγούν γιατί ακόμη και το αφεντικό του Open AI περιορίζει τις προσδοκίες - και γιατί ορισμένα μελλοντικά σενάρια διαβάζονται σαν κακή φαντασία θαυμαστών.

Daniel Hackbarth (Interview) Anica Lora Nižić (Illustration)

 

WOZ: Emily M. Bender, Alex Hanna, γνωρίζετε την εφημερίδα "AI 2027" που στοιχειώνει τα μέσα ενημέρωσης εδώ και λίγο καιρό; Προβλέπει ότι οι αναταραχές που προκαλούνται από την τεχνητή νοημοσύνη θα ξεπεράσουν σύντομα τη βιομηχανική επανάσταση.

Emily M. Bender: Είναι μια ιστοσελίδα, όχι μια εφημερίδα. Φαίνεται επιστημονικό, αλλά είναι μια κερδοσκοπική φαντασία. Αυτό παρουσιάζεται με πολλά μεμονωμένα στοιχεία που μπορείτε να ξεδιπλώσετε για να δείτε διαγράμματα και παρόμοια - αλλά αυτό που βλέπετε εκεί είναι κάτι το φανταστικό.

WOZ: Θα μπορούσατε να το αναπτύξετε αυτό; Δεν είναι μόνο σκοτεινοί κύκλοι στο Διαδίκτυο στους οποίους αυτό προκαλεί αναταραχή.

Alex Hanna: «AI 2027" γράφτηκε από τους Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland και Romeo Dean. Ανήκουν στο «ορθολογιστικό κίνημα», μια σχολή σκέψης ευρέως διαδεδομένη στην αμερικανική τεχνολογική βιομηχανία που στοχεύει στην προώθηση της χρήσης τεχνολογιών όπως η τεχνητή νοημοσύνη προς όφελος της ανθρωπότητας. Αυτοί δεν είναι επιστήμονες των οποίων οι υπολογισμοί βασίζονται σε εμπειρικά δεδομένα. Οι συγγραφείς χρησιμοποιούν όρους από τις μπεϋζιανές στατιστικές. Ωστόσο, αυτό περιλαμβάνει επίσης μια μεθοδολογία που πρέπει να τηρηθεί. Εδώ, με το πρόσχημα της στατιστικής γλώσσας, κάποια πιθανότητα αποδίδεται σε πράγματα που θα μπορούσαν να συμβούν στο μέλλον.

Οι κριτικοί τεχνολογίας

Η Emily M. Bender είναι καθηγήτρια γλωσσολογίας στο Πανεπιστήμιο της Ουάσιγκτον στο Σιάτλ. Η περιγραφή των chatbots ως «στοχαστικοί παπαγάλοι» έγινε γνωστή: η μεταφορά έχει σκοπό να δείξει ότι οι γεννήτριες κειμένου όπως το Chat GPT δεν είναι απλώς οποιεσδήποτε «ευφυΐες», αλλά προγράμματα που αναπαράγουν προηγουμένως τροφοδοτημένο κείμενο μέσω υπολογισμών πιθανοτήτων (βλ. WOZ No. 12/23).

Μεθοδολογικά, όλα αυτά είναι άχρηστα;

Χάνα: Όχι – μόνο το όριο για την υπολογιστική ισχύ, από το οποίο και πάνω υποτίθεται ότι έχουμε να κάνουμε με συνείδηση, καθορίστηκε εντελώς αυθαίρετα. Και όσο πιο πολύ προχωράει κανείς στην ιστοσελίδα, τόσο πιο συχνά συναντά απλές υποθέσεις. Δεν υπάρχει καμία συγκεκριμένη απόδειξη ότι η έρευνα στον τομέα της τεχνητής νοημοσύνης μπορεί να αυτοματοποιηθεί. Ακόμη και όσον αφορά τον αυτοματοποιημένο προγραμματισμό, δεν είναι δυνατόν να προσδιοριστεί προς το παρόν σε ποιο βαθμό τα μεγάλα γλωσσικά μοντέλα (LLM) θα αυξήσουν την παραγωγικότητα των ανθρώπων προγραμματιστών: ορισμένες μελέτες το υποδηλώνουν, ενώ άλλες το αμφισβητούν. Μια πολύ γνωστή μελέτη ενός ερευνητικού ινστιτούτου με το όνομα METR κατέληξε στο συμπέρασμα ότι, αν και οι προγραμματιστές πίστευαν ότι ήταν πιο παραγωγικοί με τη βοήθεια των LLMs, στην πραγματικότητα χρειάζονταν περισσότερο χρόνο όταν τα χρησιμοποιούσαν.

Bender: Γενικά, είναι λάθος να πιστεύουμε ότι τα ολοένα και μεγαλύτερα συστήματα δημιουργίας κειμένων θα αποκτήσουν κάποια στιγμή συνείδηση και θα επιταχύνουν ενεργά την πρόοδο. Το τελευταίο μαρτυρά μια λανθασμένη αντίληψη για το τι είναι η επιστήμη. Πιστεύουμε ότι η επιστήμη προχωράει με την παραγωγή επιστημονικών τεκμηρίων υπό μορφή άρθρων – και όχι μέσω της ανταλλαγής απόψεων μεταξύ της επιστημονικής κοινότητας. Από αυτό προέρχεται η ιδέα ότι οι εταιρείες τεχνητής νοημοσύνης εκπαιδεύουν αρχικά τις μηχανές τους με ανθρώπινο προσωπικό, αλλά στη συνέχεια οι ανθρώπινοι ερευνητές γίνονται περιττοί και οι μηχανές αναλαμβάνουν. Η επιστήμη δεν λειτουργεί έτσι. Το «AI 2027» μου φαίνεται σαν ένα κακό φτιαγμένο έργο φανταστικής λογοτεχνίας.

 

Alex Hanna, Emily Bender

WOZ: Σε ποιο βαθμό;

Bender: Στη φανταστική λογοτεχνία, οι συγγραφείς βασίζονται στο worldbuilding που έχουν δημιουργήσει άλλοι πριν από αυτούς: ο κόσμος και οι χαρακτήρες υπάρχουν ήδη – και τώρα χρησιμοποιούνται για να διηγηθεί κανείς τη δική του ιστορία. Η φανταστική λογοτεχνία μπορεί να είναι υπέροχη. Ωστόσο, το «AI 2027» μοιάζει με κακή φανταστική λογοτεχνία, επειδή βασικά στοιχεία της βρίσκονται ήδη στην αφήγηση που δημιουργούν οι προαναφερθέντες ορθολογιστές. Πολλά από αυτά προέρχονται από τον Σουηδό τρανσ-ανθρωπιστή Nick Bostrom. Έτσι, εδώ παρουσιάζεται κάτι ως πρόβλεψη, το οποίο στην πραγματικότητα είναι η επανάληψη μιας παλιάς ιστορίας.

Hanna: Αν συνεχίσουμε αυτή τη σκέψη, θα μπορούσαμε να πούμε ότι πρόκειται για μια κοινότητα θαυμαστών που μοιράζονται ιδεολογίες όπως ο «μακροπρόθεσμος ορίζοντας», ο οποίος πιστεύει ότι είναι αφιερωμένος στο μακροπρόθεσμο καλό της ανθρωπότητας, ή το «κίνημα του ορθολογισμού». Το ασυνήθιστο είναι ότι εδώ τα όρια της κοινότητας θαυμαστών έχουν ξεπεραστεί, στο βαθμό που η ιστοσελίδα έχει δημιουργήσει κάτι που ξαφνικά γίνεται αντιληπτό και εκτός αυτής. Ωστόσο, αυτό ήταν απόλυτα σκόπιμο. Και τώρα οι πολιτικοί υπεύθυνοι για τη λήψη αποφάσεων πιστεύουν επίσης ότι σύντομα θα συναντάμε παντού αυτοματοποιημένους πράκτορες. Πρόκειται όμως για εντελώς απατηλά σενάρια.





 

Alex Hanna, Foto: Will Toft

WOZ: Στο βιβλίο , επισημαίνετε ότι δεν είναι μόνο η επιστήμη που είναι λανθασμένη στη συζήτηση για την ΤΝ, επειδή δεν γίνεται αντιληπτή ως κοινωνική πρακτική. Το ίδιο ισχύει και για την τέχνη.

Bender: Η επιστήμη, η τέχνη ή και η δημοσιογραφία έχουν να κάνουν με τη δημιουργικότητα, αλλά θα μπορούσε επίσης να πει κανείς ότι πρόκειται για κοινωνικά εγχειρήματα. Μια κοινωνική πτυχή της τέχνης είναι ότι έχει να κάνει με τη μετάδοση εμπειριών. Ταυτόχρονα, οι καλλιτέχνες αναφέρονται στα έργα άλλων, στα οποία βασίζονται. Είναι ειρωνικό όταν εκείνοι που κλέβουν το έργο των καλλιτεχνών για να αναπτύξουν μηχανές δημιουργίας εικόνων ισχυρίζονται: «Η μηχανή μου μπορεί να κάνει το ίδιο με αυτούς!» Σε αυτό προστίθεται το πρόβλημα της ανθρωπομορφικής γλώσσας. Το «μηχανικό μάθημα» δεν είναι μάθηση με την πραγματική έννοια του όρου: ο αλγόριθμος δεν έχει καμία σχέση με τους ανθρώπους των οποίων την τέχνη τροφοδοτεί. Το να ονομάζουμε αυτό ως μαθησιακή διαδικασία και να υπονοούμε ότι η μηχανή κάνει το ίδιο με έναν καλλιτέχνη, αποανθρωποποιεί τον τελευταίο.

Hanna: Αναφερόμαστε στην κοινωνιολόγο Jennifer Lena, η οποία έχει διαπιστώσει ότι η καλλιτεχνική δραστηριότητα δεν είναι ένα ατομικό εγχείρημα, αλλά ότι πρόκειται πάντα για αναφορές στα έργα άλλων. Υπάρχουν πάντα γραμμές παράδοσης και μαθητείας. Μερικοί καλλιτέχνες κάνουν τέτοιες αναφορές παραθέτοντας άλλους. Ακόμα κι αν επικρίνετε κάτι, δείχνετε μια συγκεκριμένη μορφή σεβασμού. Αλλά αν τώρα έχετε εικόνες τύπου Ghibli που έχουν δημιουργηθεί με το Chat GPT, τότε αυτό δεν δείχνει σεβασμό για τον Hayao Miyazaki, τον ιδρυτή του Studio Ghibli. Επίσης, απέχει πολύ από το να αισθάνεται έτσι.

WOZ: Γράφετε ότι από την αρχή της έρευνας στον τομέα της τεχνητής νοημοσύνης υπήρχε ένας ενθουσιασμός γύρω από αυτήν. Πώς ήταν τότε;

Hanna: Ο όρος «τεχνητή νοημοσύνη» επινοήθηκε το καλοκαίρι του 1956 σε ένα εργαστήριο στο Dartmouth College στην πολιτεία του New Hampshire των ΗΠΑ. Οι επιστήμονες της πληροφορικής John McCarthy και Marvin Minsky είχαν προσκαλέσει ερευνητές για να ανταλλάξουν απόψεις σχετικά με τεχνολογίες που ομαδοποιήθηκαν υπό τον όρο «thinking machines» (μηχανές που σκέφτονται) και που αφορούσαν την αυτοματοποίηση, για παράδειγμα στην προγραμματιστική. Ο McCarthy πρότεινε να χρησιμοποιηθεί ο όρος «τεχνητή νοημοσύνη», ώστε να συγκεντρωθούν οι συμμετέχοντες υπό την ομπρέλα ενός κοινού όρου. Ταυτόχρονα, ήθελε να διαχωριστεί από τον Norbert Wiener, ο οποίος ερευνούσε στον τομέα της κυβερνητικής, που επικεντρωνόταν στα συστήματα ελέγχου. Ο McCarthy τόνισε λοιπόν την πτυχή της «σκέψης». Στη συνέχεια, ο Minsky έγραψε ένα άρθρο, σύμφωνα με το οποίο όλα όσα συμβαίνουν στον εγκέφαλο μπορούν να αναπαραχθούν με μηχανικά μέσα. Αυτό προσέλκυσε μεγάλη προσοχή, ακόμη και από την πλευρά του στρατιωτικο-βιομηχανικού συμπλέγματος. Δημιουργήθηκε μια νοοτροπία ανταγωνισμού: θεωρούσαν ότι έπρεπε οπωσδήποτε να είναι καλύτεροι από τους Σοβιετικούς σε αυτόν τον τομέα – όπως συμβαίνει σήμερα στον ανταγωνισμό με την Κίνα. Επιπλέον, άνθρωποι όπως ο Minsky δεν ενδιαφέρονταν για την ορθή πρακτική των αναφορών. Αντ' αυτού, ο τρόπος λειτουργίας τους ήταν η υπερβολή.

WOZ: Στο βιβλίο, τονίζετε επίσης τη σημασία του Joseph Weizenbaum. Ποιος ήταν αυτός;

Bender: Ο Weizenbaum ήταν ένας από τους ιδρυτές της υπολογιστικής γλωσσολογίας. Έγραψε ένα πρόγραμμα κοινώς γνωστό ως «Ελίζα», με την Ελίζα να είναι μόνο μία παραλλαγή αυτού του προγράμματος. Ήταν ένας προσομοιωτής συνομιλίας που δημιουργήθηκε για να παράγει γραμματικά σωστές προτάσεις που αισθάνονται σχετικές με το άτομο που χειρίζεται το πρόγραμμα. Σε αντίθεση με το Chat GPT σήμερα, το Eliza δεν βασίζεται σε πολύ μεγάλα σύνολα δεδομένων, αλλά ακολουθεί μερικούς κανόνες. Εάν πληκτρολογήσετε κάτι για ένα μέλος της οικογένειας, ενεργοποιεί μια πρόταση όπως: «Ω, πες μου περισσότερα για τη μητέρα σου». Το Eliza σχεδιάστηκε για να μιμείται τον τρόπο που λειτουργεί ένας ψυχοθεραπευτής – απλά επειδή μια θεραπευτική κατάσταση ήταν πρακτική για σκοπούς επίδειξης. Το λογισμικό δεν χρειάζεται καμία γνώση του κόσμου για τη διεξαγωγή συνομιλιών, επειδή όλα καταλήγουν σε προτάσεις όπως: "Λυπάμαι που αισθάνεστε έτσι. Πες μου περισσότερα». Αργότερα, ο Weizenbaum έγραψε μερικά σημαντικά έργα επειδή σοκαρίστηκε από την ανταπόκριση στην Eliza.

WOZ: Πώς ήταν;

Bender: Υπάρχει ένα ανέκδοτο για τη γραμματέα του, της οποίας η ταυτότητα είναι δυστυχώς άγνωστη. Η γραμματέας κάποτε έδιωξε τον Weizenbaum από το δωμάτιο όταν αυτή αλληλεπιδρούσε με το σύστημα, επειδή δεν ήθελε να ακούσει μια ιδιωτική συνομιλία. Ο Weizenbaum έδειξε στους ανθρώπους που είχαν αλληλεπιδράσει με το σύστημα τον κώδικά του: σκέφτηκε ότι όταν είδαν πώς λειτουργούσε, η ψευδαίσθηση ότι είχαν πραγματικά να κάνουν με ένα άτομο εξαφανίστηκε. Αλλά αυτό δεν συνέβη. Ο Weizenbaum έγινε οξύς επικριτής της έρευνας για την τεχνητή νοημοσύνη, αλλά και των στόχων που επιδιώκει γενικά η αυτοματοποίηση. Δυστυχώς, οι προειδοποιήσεις του δεν εισακούστηκαν σε μεγάλο βαθμό.

WOZ: Στην πραγματικότητα, απίστευτα ποσά εισρέουν στην ανάπτυξη της τεχνητής νοημοσύνης. Δεν έχετε καμία αμφιβολία ότι πρέπει να υπάρχει κάτι σε αυτό που αποκαλείτε "διαφημιστική εκστρατεία";

Bender: Όχι, δεν έχω καμία αμφιβολία γι 'αυτό. Υπάρχει ένας μύθος ότι οι άνθρωποι με πολλά χρήματα έχουν πολλά χρήματα επειδή είναι ιδιαίτερα έξυπνοι. Αλλά δεν είναι. Αυτοί οι άνθρωποι δεν καταλαβαίνουν αυτή την τεχνολογία καλύτερα από οποιονδήποτε άλλο. Αντίθετα, παρατηρούμε ότι εκείνοι που θέλουν να αντικαταστήσουν θέσεις εργασίας κατά δεκάδες, δεν έχουν ιδέα για την εργασία που θέλουν να καταστήσουν περιττή.

WOZ: Ο ίδιος ο διευθυντής της Open AI, Sam Altman, ανέφερε πρόσφατα ότι ενδέχεται να συμβεί μια κατάρρευση, επειδή η φούσκα της τεχνητής νοημοσύνης έχει μεγαλώσει υπερβολικά.

Hanna: Ο Altman παίζει με ασφάλεια, επειδή γνωρίζει ότι το φαινόμενο έχει υπερβολικά διογκωθεί. Ωστόσο, δεν λέει: «Παρακαλώ, επενδύστε λιγότερα!». Απλώς ζητά περισσότερο χρόνο για να υλοποιήσει τις υποσχέσεις του. Αν τελικά συμβεί η κατάρρευση, θα πει: «Σας προειδοποίησα!». Αλλά είναι πραγματικά ανησυχητικό το πόσα χρήματα ρέουν και το πώς ολόκληρη η οικονομία επικεντρώνεται σε αυτόν τον ένα τομέα. Θα περίμενε κανείς ότι έχουν αντληθεί διδάγματα από προηγούμενους κύκλους της χρηματιστηριακής αγοράς. Δυστυχώς, όμως, αυτό δεν ισχύει.

WOZ: Εμμέσως, ο Altman προτείνει ότι η AI είναι παρόμοια με το Διαδίκτυο, το οποίο αναμφίβολα προκάλεσε τεράστιες αναταραχές, ακόμα κι αν υπήρξε η κατάρρευση του dotcom ...

Bender: Αυτό ακούγεται σαν ένας ρητορικός ελιγμός για να οδηγήσει σε περισσότερες επενδύσεις - σε μια εποχή που νέες μελέτες αρνούνται ότι αυτά τα συστήματα βελτιώνουν σταθερά την παραγωγικότητα. Το Διαδίκτυο έχει αποδειχθεί χρήσιμο, ακόμη και αν υπήρξε συντριβή. Αλλά αυτό δεν μας λέει τίποτα για τα οφέλη της λεγόμενης τεχνητής νοημοσύνης, ένας όρος που δεν είναι ένα συνεκτικό σύνολο τεχνολογιών. Αυτό που θέλει να πουλήσει ο Altman είναι τα LLM(Large language model Type of machine learning model) : θέλει να τα δει τόσο πανταχού παρόντα όσο είναι σήμερα το Διαδίκτυο. Αλλά αυτό έχει δικτυώσει τους ανθρώπους μεταξύ τους. Τα LLM, από την άλλη πλευρά, αφορούν τη διακοπή των σχέσεων μεταξύ των ανθρώπων.

WOZ: Στην περίπτωση του Διαδικτύου, θα μπορούσε κανείς να υποστηρίξει ότι έχει επιδεινώσει ορισμένα πράγματα, αν σκεφτούμε για παράδειγμα τις εξαιρετικά επισφαλείς συνθήκες εργασίας.

Hanna: Σίγουρα δεν είναι έτσι ότι το Διαδίκτυο είναι κάτι απολύτως θετικό: έχει εξελιχθεί προς την κατεύθυνση της πλατφορμοποίησης ή έχει καταστήσει δυνατή την εξωτερική ανάθεση εργασιακών διαδικασιών. Παρ' όλα αυτά, πολλοί πιστεύουν ότι το Διαδίκτυο είναι κάτι θετικό σε όλα τα επίπεδα – ή τουλάχιστον ότι πριν από τις πλατφόρμες υπήρχε ένα είδος άγριου δικτύου, στο οποίο όλοι συνδέονταν οργανικά μεταξύ τους. Αυτό δεν ήταν ποτέ το αλήθεια, το Διαδίκτυο ήταν πάντα συνδεδεμένο με αποκλεισμούς. Η διαφορά με σήμερα είναι ότι στο Διαδίκτυο μπορούσαν να διακριθούν από νωρίς χρήσιμες εφαρμογές, για παράδειγμα στην οικοδόμηση κοινοτήτων και στη δικτυωμένη συνεργασία. Αν κοιτάξουμε τα LLM, δεν διακρίνονται πολλά παραδείγματα όπου αυτά θα ήταν απαραίτητα χρήσιμα στις εργασιακές διαδικασίες των ανθρώπων ή θα προωθούσαν τη δικτύωση των ανθρώπων. Θα πρέπει μάλλον να εξετάσουμε ποιες μορφές απομόνωσης δημιουργεί αυτή η τεχνολογία.

WOZ: Θα μπορούσατε να μας περιγράψετε εν συντομία πώς λειτουργούν τα chatbots;

Bender: Η γλωσσολογία είναι χρήσιμη σε αυτό το σημείο. Πρόκειται για τη μελέτη του τρόπου λειτουργίας της γλώσσας και του τρόπου με τον οποίο την χρησιμοποιούμε. Η υπολογιστική γλωσσολογία, από την άλλη πλευρά, ασχολείται με τον τρόπο με τον οποίο οι υπολογιστές μπορούν να λειτουργούν με τη φυσική γλώσσα. Τι κάνουν λοιπόν τα γλωσσικά μοντέλα; Μια διαπίστωση της γλωσσολογίας – που ανάγεται σε εργασίες του Ferdinand de Saussure πριν από πάνω από εκατό χρόνια – είναι ότι οι γλώσσες είναι συστήματα σημείων. Η γλώσσα περιλαμβάνει τόσο τη μορφή, δηλαδή τον τρόπο με τον οποίο γράφεται και προφέρεται μια λέξη, όσο και το νόημα: είτε αυτό που έχει συμφωνηθεί μέσα σε μια γλωσσική κοινότητα, είτε αυτό στο οποίο αναφέρεται ο ομιλητής με τη λέξη. Η γλώσσα συνδυάζει πάντα και τις δύο πτυχές – τη μορφή και το νόημα.

WOZ: Και στα γλωσσικά μοντέλα;

Bender: Αυτά μοντελοποιούν μόνο τη μορφή, δηλαδή ποιες λέξεις εμφανίζονται σε μια συγκεκριμένη θέση. Αυτό μπορεί να γίνει κατανοητό με βάση το σύστημα T9, το οποίο παλαιότερα διευκόλυνε τη σύνταξη μηνυμάτων σε κινητά τηλέφωνα. Το T9 βασιζόταν σε ένα γλωσσικό μοντέλο μονογράμματος. Για το σκοπό αυτό, συλλέγονταν μια συγκεκριμένη ποσότητα δεδομένων εκπαίδευσης και τα χωρίζαμε σε μεμονωμένες λέξεις, των οποίων μετρούσαμε τη συχνότητα. Αν μέχρι τότε θέλαμε να γράψουμε ένα SMS στο παλιό μας κινητό με πλήκτρα, κάθε ένα από τα εννέα ψηφία αντιστοιχούσε σε τρία γράμματα, ένα μάλιστα σε τέσσερα. Έτσι, συχνά έπρεπε να πατάμε ένα πλήκτρο πολλές φορές για να βρούμε το γράμμα που θέλαμε. Με το T9, αντίθετα, αρκούσε να πατήσετε κάθε πλήκτρο μόνο μία φορά, επειδή το πρόγραμμα προσδιόριζε τις πιθανές λέξεις που προέκυπταν από τα πλήκτρα που πατήσατε. Ωστόσο, η συχνότητα κάθε λέξης προσδιοριζόταν μεμονωμένα. Στα αγγλικά, οι λέξεις «home» και «good» απαιτούσαν την ίδια ακολουθία αριθμών, αλλά η λέξη «good» ήταν η πιο συχνά χρησιμοποιούμενη. Αυτό είχε ως αποτέλεσμα ότι ακόμη και σε ένα πλαίσιο όπου η λέξη «home» θα ήταν σαφώς η λογική επιλογή – για παράδειγμα στη φράση «I will see you at …» – το γλωσσικό μοντέλο T9 πρότεινε πρώτα τη λέξη «good». Έπρεπε να επιλέξει κανείς χειροκίνητα την επόμενη πρόταση.

WOZ: Πώς αναπτύχθηκε περαιτέρω;

Bender: Για το επόμενο βήμα ανάπτυξης, χρησιμοποιήθηκε το μοντέλο bigram. Καθόρισαν πόσο πιθανό είναι μια λέξη να ακολουθείται από αυτή ή εκείνη τη λέξη. Έτσι λειτουργεί ένα γλωσσικό μοντέλο στον πυρήνα του. Για κάτι σαν το σύστημα T9, αυτό είναι πολύ χρήσιμο. Χρησιμοποιείται επίσης για αυτόματη μεταγραφή και γενικά όπου θέλετε να ταξινομήσετε σειρές χαρακτήρων. Τα μεγάλα γλωσσικά μοντέλα βασίζονται σε πολύ πιο εκτεταμένα σύνολα δεδομένων. Αυτό δεν αποτελεί πρόβλημα από μόνο του, αλλά τώρα είναι τόσο μεγάλα που δεν γνωρίζουμε πλέον τι ακριβώς περιέχεται σε αυτά. Το πραγματικό πρόβλημα, ωστόσο, είναι ότι μεγάλα γλωσσικά μοντέλα χρησιμοποιούνται για την παραγωγή συνθετικού κειμένου.

WOZ: Γιατί αυτό είναι πρόβλημα;

Bender: Εδώ μπαίνει στο παιχνίδι ένα δεύτερο δίδαγμα από τη γλωσσολογία: όταν κατανοούμε μια σειρά λέξεων, θα μπορούσε κανείς να σκεφτεί ότι αυτό συμβαίνει επειδή κάποιος έχει εκφράσει αυτές τις λέξεις με μια συγκεκριμένη σειρά, προκειμένου να μεταφέρει ένα μήνυμα μέσα από αυτές τις λέξεις, το οποίο εμείς, ως αποδέκτες, «απο-συσκευάζουμε» κατά κάποιον τρόπο. Ωστόσο, η γλωσσική μας κατανόηση δεν λειτουργεί έτσι. Αντίθετα, ρωτάμε ενστικτωδώς: Τι ξέρω για τον ομιλητή; Τι κοινό υπόβαθρο μοιραζόμαστε; Τι πιστεύω ότι ο ομιλητής νομίζει ότι γνωρίζει για τους αποδέκτες του μηνύματός του; Από αυτά τα στοιχεία εξάγουμε συμπεράσματα, τα οποία λαμβάνουμε υπόψη όταν θέλουμε να κατανοήσουμε τι ήθελε να μας μεταδώσει αυτός ο άνθρωπος, επιλέγοντας ακριβώς αυτές τις λέξεις με αυτή τη σειρά. Έτσι, πάντα φανταζόμαστε έναν νου πίσω από το κείμενο που λαμβάνουμε – έτσι ερμηνεύουμε τη γλώσσα. Όταν έχουμε να κάνουμε με συνθετικό κείμενο, το ερμηνεύουμε ενστικτωδώς με τον ίδιο τρόπο. Εδώ, όμως, δεν υπάρχει νους που να είναι υπεύθυνος για το κείμενο: αυτό είναι που κρύβεται πίσω από το φαινόμενο Eliza που αναφέρθηκε παραπάνω.

WOZ: Ωστόσο, αυτό που φτύνουν προς τα εξω τα chatbots είναι πολύ πιο εντυπωσιακό από το σύστημα T9: Συχνά παίρνετε ένα κείμενο που μοιάζει με εγκυκλοπαίδεια, όμορφα δομημένο και γραφικά προετοιμασμένο.

Hanna:  Αυτά που σου δίνουν τα Chat GPT μπορεί να φαίνονται εντυπωσιακά. Ωστόσο, αυτό οφείλεται σε αυτό που οι προγραμματιστές έχουν κλέψει αλλού για τα δεδομένα εκπαίδευσής τους. Συνολικά, αυτό έχει ως αποτέλεσμα ένα εντυπωσιακό αποτέλεσμα, αλλά δεν υπάρχει διαφάνεια ως προς την πραγματική προέλευση των δεδομένων. Μπορείτε να βρείτε αναφορές, αλλά μερικές φορές αυτές είναι ψευδείς ή πλασματικές.

WOZ: Το βιβλίο αναφέρεται επίσης στους «AI booster» και στους «AI doomer»: οι πρώτοι πιστεύουν ότι η τεχνητή νοημοσύνη θα μας προσφέρει ένα λαμπρό μέλλον. Οι δεύτεροι προειδοποιούν για μηχανές που θα μπορούσαν να στραφούν εναντίον του ανθρώπου. Πώς σχετίζονται μεταξύ τους αυτές οι δύο ομάδες;

Bender: Μπορούμε να σκεφτούμε την ιστοσελίδα που αναφέρθηκε στην αρχή, η οποία αποτελεί ένα παράδειγμα «AI doomerism». Οι συγγραφείς παρουσιάζονται ως αντίθετοι των Boostern. Αλλά πρόκειται για τις δύο όψεις του ίδιου νομίσματος. Οι υποστηρικτές λένε: η τεχνητή νοημοσύνη είναι μια αναπόφευκτη πρόοδος, που βρίσκεται λίγο πριν από τεράστιες ανακαλύψεις, οι οποίες θα λύσουν όλα τα προβλήματά μας. Οι καταστροφολόγοι λένε: η τεχνητή νοημοσύνη είναι μια αναπόφευκτη πρόοδος, που βρίσκεται λίγο πριν από τεράστιες ανακαλύψεις και θα μας σκοτώσει όλους. Πρόκειται για την ίδια αφήγηση, μόνο με δύο αντίθετες καταλήξεις.

Hanna: Ταυτόχρονα, αυτό παραμορφώνει την εικόνα του πραγματικού φάσματος των επιλογών δράσης. Πέρα από τις καταστροφικές προβλέψεις και τις υποσχέσεις σωτηρίας, υπάρχουν πολύ διαφορετικές θέσεις που μπορεί κανείς να πάρει: Μπορεί, για παράδειγμα, να είναι απλά ενοχλητικό το γεγονός ότι η τεχνητή νοημοσύνη ενσωματώνεται σε όλα τα δυνατά πράγματα, επειδή απλά δεν είναι απαραίτητο.

19 Μαΐ 2024

Τεχνητή Νοημοσύνη. „Θόρυβος“ στη μηχανή: Ανθρώπινες διαφορές στην κρίση οδηγούν σε προβλήματα για την Τεχνητή Νοημοσύνη

 „Θόρυβος“ στη μηχανή: Ανθρώπινες διαφορές στην κρίση οδηγούν σε προβλήματα για την Τεχνητή Νοημοσύνη

Πολλοί άνθρωποι κατανοούν την έννοια της μεροληψίας σε κάποιο διαισθητικό επίπεδο. Στην κοινωνία και στα συστήματα τεχνητής νοημοσύνης,  οι φυλετικές προκαταλήψεις και οι προκαταλήψεις λόγω φύλου είναι καλά τεκμηριωμένες.

Εάν η κοινωνία μπορούσε με κάποιο τρόπο να εξαλείψει την μεροληψία, θα εξαφανίζονταν όλα τα προβλήματα; Ο αείμνηστος νομπελίστας Daniel Kahneman, ο οποίος ήταν βασικό πρόσωπο στον τομέα των συμπεριφορικών οικονομικών, υποστήριξε στο τελευταίο του βιβλίο ότι η μεροληψία είναι μόνο η μία πλευρά του νομίσματος. Τα σφάλματα στις κρίσεις μπορούν να αποδοθούν σε δύο πηγές: μεροληψία και θόρυβο.

Η μεροληψία και ο θόρυβος διαδραματίζουν σημαντικό ρόλο σε τομείς όπως το δίκαιο,  η ιατρική και  οι οικονομικές προβλέψεις, όπου έχουμε ανθρωποκεντρικές κρίσεις. Στο έργο μας ως επιστήμονες υπολογιστών και πληροφοριών, οι συνάδελφοί μου και εγώ διαπιστώσαμε ότι ο θόρυβος παίζει επίσης ρόλο στην τεχνητή νοημοσύνη.

 

Στατιστικός θόρυβος

Ο θόρυβος σε αυτό το πλαίσιο σημαίνει διακύμανση στον τρόπο με τον οποίο οι άνθρωποι κρίνουν το ίδιο πρόβλημα ή κατάσταση. Το πρόβλημα του θορύβου είναι πιο διαδεδομένο από ό, τι αρχικά συναντά το μάτι. Ένα σημαντικό έργο, που χρονολογείται από τη Μεγάλη Ύφεση, διαπίστωσε ότι διαφορετικοί δικαστές έδωσαν διαφορετικές ποινές για παρόμοιες υποθέσεις.

Ανησυχητικά, η καταδίκη σε δικαστικές υποθέσεις μπορεί να εξαρτηθεί από πράγματα όπως η θερμοκρασία και αν κέρδισε η τοπική ποδοσφαιρική ομάδα. Τέτοιοι παράγοντες, τουλάχιστον εν μέρει, συμβάλλουν στην αντίληψη ότι το δικαστικό σύστημα δεν είναι μόνο μεροληπτικό αλλά και αυθαίρετο κατά καιρούς.

Άλλα παραδείγματα: Οι ασφαλιστικοί πραγματογνώμονες μπορεί να δίνουν διαφορετικές εκτιμήσεις για παρόμοιες αξιώσεις, αντανακλώντας τον θόρυβο στις κρίσεις τους. Ο θόρυβος είναι πιθανό να υπάρχει σε κάθε είδους διαγωνισμούς, που κυμαίνονται από γευσιγνωσίες κρασιού έως τοπικούς διαγωνισμούς ομορφιάς έως εισαγωγές στο κολέγιο.

 

 Video:https://youtu.be/cAZpLF5qG8M

 Ντάνιελ Κάνεμαν Nobel Οικονομικών. 5 Μαρτίου 1934-27 Μαρτίου 2024

Θόρυβος στα δεδομένα

Επιφανειακά, δεν φαίνεται πιθανό ότι ο θόρυβος θα μπορούσε να επηρεάσει την απόδοση των συστημάτων AI. Εξάλλου, οι μηχανές δεν επηρεάζονται από τον καιρό ή τις ποδοσφαιρικές ομάδες, οπότε γιατί να κάνουν κρίσεις που ποικίλλουν ανάλογα με τις περιστάσεις; Από την άλλη, οι ερευνητές γνωρίζουν ότι η μεροληψία επηρεάζει την τεχνητή νοημοσύνη, επειδή αντικατοπτρίζεται στα δεδομένα στα οποία εκπαιδεύεται η τεχνητή νοημοσύνη.

Για τη νέα έξαρση μοντέλων τεχνητής νοημοσύνης όπως το ChatGPT, ο χρυσός κανόνας είναι η ανθρώπινη απόδοση σε γενικά προβλήματα νοημοσύνης, όπως η κοινή λογική. Το ChatGPT και οι ομότιμοί του μετρώνται  με βάση  σύνολα δεδομένων κοινής λογικής που χαρακτηρίζονται από ανθρώπους.

Με απλά λόγια, οι ερευνητές και οι προγραμματιστές μπορούν να θέσουν στη μηχανή μια ερώτηση κοινής λογικής και να τη συγκρίνουν με τις ανθρώπινες απαντήσεις: "Αν τοποθετήσω μια βαριά πέτρα σε ένα χάρτινο τραπέζι, θα καταρρεύσει; Ναι ή Όχι". Εάν υπάρχει υψηλή συμφωνία μεταξύ των δύο -στην καλύτερη περίπτωση, τέλεια συμφωνία- η μηχανή προσεγγίζει την κοινή λογική σε ανθρώπινο επίπεδο, σύμφωνα με το τεστ.

Πού θα έμπαινε λοιπόν ο θόρυβος; Η παραπάνω ερώτηση κοινής λογικής φαίνεται απλή και οι περισσότεροι άνθρωποι πιθανότατα θα συμφωνούσαν στην απάντησή της, αλλά υπάρχουν πολλές ερωτήσεις όπου υπάρχει μεγαλύτερη διαφωνία ή αβεβαιότητα: «Είναι η ακόλουθη πρόταση εύλογη ή απίθανη; Ο σκύλος μου παίζει βόλεϊ». Με άλλα λόγια, υπάρχει πιθανότητα θορύβου. Δεν προκαλεί έκπληξη το γεγονός ότι ενδιαφέρουσες ερωτήσεις κοινής λογικής θα έχουν κάποιο θόρυβο.

Αλλά το ζήτημα είναι ότι οι περισσότερες δοκιμές AI δεν λαμβάνουν υπόψη αυτόν τον θόρυβο στα πειράματα. Διαισθητικά, οι ερωτήσεις που παράγουν ανθρώπινες απαντήσεις που τείνουν να συμφωνούν μεταξύ τους θα πρέπει να σταθμίζονται υψηλότερα από ό, τι εάν οι απαντήσεις αποκλίνουν - με άλλα λόγια, όπου υπάρχει θόρυβος. Οι ερευνητές εξακολουθούν να μην γνωρίζουν εάν ή πώς να σταθμίσουν τις απαντήσεις της τεχνητής νοημοσύνης σε αυτή την κατάσταση, αλλά ένα πρώτο βήμα είναι η αναγνώριση ότι το πρόβλημα υπάρχει.

 

Εντοπισμός θορύβου στο μηχάνημα

Πέρα από τη θεωρία, παραμένει το ερώτημα αν όλα τα παραπάνω είναι υποθετικά ή αν σε πραγματικά τέστ κοινής λογικής υπάρχει θόρυβος. Ο καλύτερος τρόπος για να αποδείξετε ή να διαψεύσετε την παρουσία θορύβου είναι να πάρετε ένα υπάρχον τεστ, να αφαιρέσετε τις απαντήσεις και να βάλετε πολλούς ανθρώπους να τις επισημάνουν ανεξάρτητα, δηλαδή να δώσουν απαντήσεις. Μετρώντας τη διαφωνία μεταξύ των ανθρώπων, οι ερευνητές μπορούν να γνωρίζουν ακριβώς πόσος θόρυβος υπάρχει στο τεστ.

Οι λεπτομέρειες πίσω από τη μέτρηση αυτής της διαφωνίας είναι περίπλοκες, περιλαμβάνοντας σημαντικά στατιστικά στοιχεία και μαθηματικά. Εξάλλου, ποιος μπορεί να πει πώς πρέπει να οριστεί η κοινή λογική; Πώς ξέρετε ότι οι ανθρώπινοι δικαστές έχουν αρκετά κίνητρα για να σκεφτούν την ερώτηση; Αυτά τα ζητήματα βρίσκονται στη διασταύρωση του καλού πειραματικού σχεδιασμού και της στατιστικής. Η ευρωστία είναι το κλειδί: Ένα αποτέλεσμα, ένα τεστ ή ένα σύνολο ανθρώπινων ετικετών είναι απίθανο να πείσει κάποιον. Ως ρεαλιστικό ζήτημα, η ανθρώπινη εργασία είναι δαπανηρή. Ίσως για αυτόν τον λόγο, δεν έχουν υπάρξει μελέτες για πιθανό θόρυβο σε δοκιμές AI.

Για να αντιμετωπίσουμε αυτό το κενό, οι συνάδελφοί μου και εγώ σχεδιάσαμε μια τέτοια μελέτη και δημοσιεύσαμε τα ευρήματά μας στο Nature Scientific Reports, δείχνοντας ότι ακόμη και στον τομέα της κοινής λογικής, ο θόρυβος είναι αναπόφευκτος. Επειδή το περιβάλλον στο οποίο εκμαιεύονται οι κρίσεις μπορεί να έχει σημασία, κάναμε δύο είδη μελετών. Ένας τύπος μελέτης περιελάμβανε αμειβόμενους εργαζόμενους από  την Amazon Mechanical Turk, ενώ η άλλη μελέτη περιελάμβανε μια μικρότερης κλίμακας άσκηση επισήμανσης σε δύο εργαστήρια στο Πανεπιστήμιο της Νότιας Καλιφόρνιας και στο Πολυτεχνικό Ινστιτούτο Rensselaer.

Μπορείτε να θεωρήσετε το πρώτο ως ένα πιο ρεαλιστικό διαδικτυακό περιβάλλον, το οποίο αντικατοπτρίζει το πώς πολλά  τεστ τεχνητής νοημοσύνης χαρακτηρίζονται στην πραγματικότητα προτού απελευθερωθούν για εκπαίδευση και αξιολόγηση. Το δεύτερο είναι πιο ακραίο, που εγγυάται υψηλή ποιότητα αλλά σε πολύ μικρότερες κλίμακες. Το ερώτημα που θέσαμε ως στόχο να απαντήσουμε ήταν πόσο αναπόφευκτος είναι ο θόρυβος και είναι απλώς θέμα ελέγχου ποιότητας;

Τα αποτελέσματα ήταν απογοητευτικά. Και στις δύο περιπτώσεις, ακόμη και σε ερωτήσεις κοινής λογικής που θα αναμενόταν να προκαλέσουν υψηλή – ακόμη και καθολική – συμφωνία, βρήκαμε έναν μη τετριμμένο βαθμό θορύβου. Ο θόρυβος ήταν αρκετά υψηλός ώστε συμπεράναμε ότι μεταξύ 4% και 10% της απόδοσης ενός συστήματος θα μπορούσε να αποδοθεί στον θόρυβο.

Για να τονίσω τι σημαίνει αυτό, ας υποθέσουμε ότι δημιούργησα ένα σύστημα AI που πέτυχε το 85% σε ένα τεστ και εσείς δημιουργήσατε ένα σύστημα AI που πέτυχε το 91%. Το σύστημά σας φαίνεται να είναι πολύ καλύτερο από το δικό μου. Αλλά αν υπάρχει θόρυβος στις ανθρώπινες ετικέτες που χρησιμοποιήθηκαν για να βαθμολογηθούν οι απαντήσεις, τότε δεν είμαστε σίγουροι πλέον ότι η βελτίωση κατά 6% σημαίνει πολλά. Για όλα όσα γνωρίζουμε, μπορεί να μην υπάρξει πραγματική βελτίωση.

Στους πίνακες κατάταξης AI, όπου συγκρίνονται μεγάλα γλωσσικά μοντέλα όπως αυτό που τροφοδοτεί το ChatGPT, οι διαφορές απόδοσης μεταξύ αντίπαλων συστημάτων είναι πολύ μικρότερες, συνήθως λιγότερο από 1%. Όπως δείχνουμε στο έγγραφο, οι συνήθεις στατιστικές δεν έρχονται πραγματικά στη διάσωση για τον διαχωρισμό των επιπτώσεων του θορύβου από εκείνες των πραγματικών βελτιώσεων απόδοσης.

 

Έλεγχοι θορύβου

Ποια είναι η μελλοντική πορεία; Επιστρέφοντας στο βιβλίο του Kahneman, πρότεινε την έννοια του «ελέγχου θορύβου» για την ποσοτικοποίηση και τελικά τον μετριασμό του θορύβου όσο το δυνατόν περισσότερο. Τουλάχιστον, οι ερευνητές της τεχνητής νοημοσύνης πρέπει να εκτιμήσουν τι επίδραση μπορεί να έχει ο θόρυβος.

Ο έλεγχος των συστημάτων τεχνητής νοημοσύνης για μεροληψία είναι κάπως συνηθισμένος, επομένως πιστεύουμε ότι η έννοια του ελέγχου θορύβου πρέπει φυσικά να ακολουθήσει. Ελπίζουμε ότι αυτή η μελέτη, καθώς και άλλες παρόμοιες, θα οδηγήσουν στην υιοθέτησή τους.

 

Ετικέτες