Χταπόδια – LaMDA: 1-0

Print Friendly, PDF & Email
- Advertisement -
ΜΙΧΑΛΗΣ ΜΠΛΕΤΣΑΣ

Τις τελευταίες ημέρες, δύο φαινομενικά άσχετα άρθρα προκαλούν αρκετό θόρυβο στα ελληνικά μέσα κοινωνικής δικτύωσης. Πρώτα, ένα άρθρο του Θοδωρή Γεωργακόπουλου στην «Καθημερινή» για το πως η προηγμένη νοημοσύνη των χταποδιών θα πρέπει να αποτελεί ανασταλτικό παράγοντα στην κατανάλωσή τους σαν ανθρώπινη τροφή

Τις τελευταίες ημέρες, δύο φαινομενικά άσχετα άρθρα προκαλούν αρκετό θόρυβο στα ελληνικά μέσα κοινωνικής δικτύωσης. Πρώτα, ένα άρθρο του Θοδωρή Γεωργακόπουλου στην «Καθημερινή» για το πως η προηγμένη νοημοσύνη των χταποδιών θα πρέπει να αποτελεί ανασταλτικό παράγοντα στην κατανάλωσή τους σαν ανθρώπινη τροφή.

Στις 11 Ιουνίου, η Washington Post ανέφερε ότι ένας μηχανικός της Google, ο Blake Lemoine, τέθηκε σε διαθεσιμότητα επειδή υποστήριξε ότι το μοντέλο τεχνητής νοημοσύνης (AI) «LaMDA» της εταιρείας μπορεί να έχει ήδη αποκτήσει συνείδηση. Η εφημερίδα αναφέρει ότι ο κ. Lemoine είπε: «Αν δεν ήξερα ακριβώς τι ήταν, αυτό το πρόγραμμα υπολογιστή που φτιάξαμε πρόσφατα, θα πίστευα ότι ήταν ένα επτάχρονο, οκτάχρονο παιδί που συμβαίνει να ξέρει φυσική».

Για όσους έχουν ασχοληθεί έστω και λίγο με την πρόοδο στην τεχνητή νοημοσύνη τα τελευταία χρόνια, το συμπέρασμα του Lemoine, όσο και να εξάπτει τη φαντασία μας, δεν έχει καμιά σχέση με την πραγματικότητα.

Το LaMDA και τα συναφή πολύ μεγάλα (θεμελιώδη) μοντέλα γλώσσας βρίσκονται σήμερα στο επίκεντρο της δημοσιότητας εξαιτίας της ικανότητάς τους να συνθέτουν κείμενο σε επίπεδο πολλές φορές καλύτερο από έναν ανθρώπινο συντάκτη. Το καταφέρνουν αυτό, έχοντας μάθει τις πιθανότητες εμφάνισης κάθε σειράς χαρακτήρων (λέξεων) δίπλα σε άλλες, επεξεργαζόμενα τεράστιες ποσότητες κειμένου, συλλεγμένου από το Διαδίκτυο. Χρησιμοποιώ επίτηδες τον όρο «σειρά χαρακτήρων» αντί για λέξη, γιατί γι’ αυτά τα μοντέλα δεν υπάρχει νόημα στις λέξεις, απλώς πιθανότητα εμφάνισής τους εξαρτώμενη από τις υπόλοιπες λέξεις γύρω τους.

Μπορούν με μόνη είσοδο μια πρόταση να γράψουν ένα απολύτως κατανοητό κείμενο γύρω από το θέμα της πρότασης, το οποίο τις περισσότερες φορές περνάει το λεγόμενο Turing test (διαβάζεται σαν γραμμένο από άνθρωπο). Είναι αυτό όμως απόδειξη νοημοσύνης; Είναι απόδειξη συνείδησης;

Στα πολύ μεγάλα (θεμελιώδη) μοντέλα γλώσσας δεν υπάρχει νόημα στις λέξεις, απλώς πιθανότητα εμφάνισής τους εξαρτώμενη από τις υπόλοιπες λέξεις γύρω τους.

Οταν δεν ξέρουμε ακόμη πώς λειτουργούν οι βιολογικοί εγκέφαλοι, είναι λίγο δύσκολο να απαντήσουμε στο πρώτο ερώτημα. Σίγουρα η σύνταξη κειμένου είναι μια διαδικασία που προϋποθέτει νοημοσύνη. Ο τρόπος με τον οποίο, όμως, την επιτυγχάνουν τα συγκεκριμένα μοντέλα είναι διαφορετικός από την ανθρώπινη νοημοσύνη. Και είναι πολύ εύκολο να παραγάγουν ανοησίες, απλά ρωτώντας τα κάτι ανόητο όπως: «Τι έφαγαν τα τηγανητά αυγά για πρωινό;». Απάντηση: «Τα τηγανητά αυγά έφαγαν φρούτα και φρυγανιές.».

Μιλάνε λοιπόν χωρίς να έχουν ιδέα για το τι λένε. Παρόλο που πιστεύω ότι ο άνθρωπος θα μπορέσει κάποια στιγμή στο όχι και πολύ μακρινό μέλλον να λύσει τον γρίφο του δικού του εγκεφάλου, και ότι αυτό θα οδηγήσει σε ανώτερες μορφές νοημοσύνης γρηγορότερα από την εξέλιξη, δεν βλέπω καμιάς μορφής συνείδηση σε μοντέλα όπως το LaMDA. Η σημερινή πρόοδος στην τεχνητή νοημοσύνη μάλλον μας απομακρύνει από τον στόχο της αποκρυπτογράφησης του ανθρώπινου εγκεφάλου και μας οδηγεί σε νέες μορφές νοημοσύνης, οι οποίες σε συνδυασμό με την ανθρώπινη μας δίνουν πολύ μεγαλύτερες δυνατότητες.

Οποιον από τους δύο δρόμους και να ακολουθήσουμε, θα βρεθούμε να συγκατοικούμε με ανώτερες μορφές νοημοσύνης, νοημοσύνης που θα έχει επηρεαστεί σε κάποιο βαθμό από τις δικές μας αξίες. Θυμάμαι τον Marvin Minsky να λέει με όχι τελείως χιουμοριστική διάθεση: «Αν είμαστε τυχεροί, θα μας κρατήσουν για κατοικίδια» (οι ανώτερες μορφές).

Εάν λοιπόν μέσα στη σημερινή κατάσταση επιτρέψουμε στον εαυτό μας τη μεγάλη πολυτέλεια ενασχόλησης με αυτό το φιλοσοφικό ακόμη ερώτημα, το θέμα που έθεσε το άρθρο με τα χταπόδια είναι πολύ πιο σοβαρό από τις αστήρικτες υποψίες συνείδησης του LaMDA και τις δημοσιογραφικές υπερβολές που προκάλεσαν αυτές.

* O κ. Μιχάλης Μπλέτσας είναι ερευνητής, διευθυντής πληροφορικής στο Media Lab του ΜΙΤ.

Καθημερινή

spot_img

1 ΣΧΟΛΙΟ

  1. Μια και έκανα MSc στο AI, να πω ότι ο συγχωρεμένος ο Marvin Minsky όπως πολλοί gurus, έπασχε από την ασθένειας της αυθεντίας. Διαψεύσθηκε για τα neural nets και για διάφορα άλλα στην πορεία.

    Ο ανθρώπινος εγκέφαλος δεν είναι ένα computer όπως πίστευε ο Minsky και τόσες δεκαετίες αργότερα, βρισκόμαστε ακόμα στο σκοτάδι για το πως προκύπτει η συνείδηση. Κάπου μεταξύ 2-3 ετών αναγνωρίζουμε τον εαυτό μας στον καθρέφτη και δεν έχουμε ιδέα πως συμβαίνει αυτό.

    Όσο για το κάθε Lamda, πρόκειται για pattern matching, non-linear algorithms & huge databases! Καμία σχέση με αυτό που συμβαίνει μέσα στο κεφάλι μας όπως self awareness, abstract thinking, common sense, free will κλπ κλπ.

Leave a Reply to Banned_Member Ακύρωση απάντησης

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Διαβάστε ακόμα

Stay Connected

2,900ΥποστηρικτέςΚάντε Like
2,767ΑκόλουθοιΑκολουθήστε
30,600ΣυνδρομητέςΓίνετε συνδρομητής
- Advertisement -

Τελευταία Άρθρα