Τόμας Φρίντμαν: Η ανθρωπότητα ανοίγει ταυτόχρονα δύο γιγάντια κουτιά της Πανδώρας

Print Friendly, PDF & Email
- Advertisement -

Ο Τόμας Φρίντμαν συνοψίζει τους τρόπους που η τεχνητή νοημοσύνη μπορεί να αποτελέσει, μέσω ρυθμιστικών κανόνων το κλειδί σωτηρίας της ανθρωπότητας, ή τελικά της καταστροφής της.

Το λεξικό Merriam-Webster σημειώνει πως ένα «κουτί της Πανδώρας» μπορεί να σημαίνει «οτιδήποτε που μοιάζει κοινό, αλλά ενδέχεται να έχει απρόβλεπτα επιζήμια αποτελέσματα». Εσχάτως σκεφτόμουν διάφορα για τα κουτιά της Πανδώρας γιατί εμείς οι Χόμο Σάπιενς κάνουμε κάτι που δεν έχουμε κάνει ξανά πριν: Ανοίγουμε ταυτόχρονα δύο γιγάντια κουτιά της Πανδώρας, χωρίς να έχουμε καμία ιδέα για το τι μπορεί να ξεπροβάλλει από αυτά.

Ένα από αυτά τα κουτιά της Πανδώρας ονομάζεται «τεχνητή νοημοσύνη» και συνοψίζεται στα παραδείγματα των ChatGPT, Bard και AlphaFold, που μαρτυρούν την ικανότητα της ανθρωπότητας να κατασκευάσει για πρώτη φορά με τρόπο «θεϊκό» κάτι που πλησιάζει τη γενική νοημοσύνη, ξεπερνώντας μακράν την εγκεφαλική δύναμη με την οποία εξελιχθήκαμε φυσιολογικά.

Το άλλο κουτί της Πανδώρας ονομάζεται «κλιματική αλλαγή» και με αυτό εμείς, οι άνθρωποι οδηγούμαστε για πρώτη φορά με έναν τρόπο θεϊκό από τη μία κλιματική εποχή στην άλλη. Έως τώρα, αυτή η δύναμη οφειλόταν σε μεγάλο βαθμό στις φυσικές δυνάμεις που κάνουν τη Γη να γυρίζει γύρω από τον Ήλιο.

Για εμένα το μεγάλο ερώτημα, καθώς ανοίγουμε τα δύο κουτιά ταυτόχρονα, είναι: Τι είδους ρύθμιση και ηθική πρέπει να εφαρμόσουμε για να διαχειριστούμε αυτό που ξεπροβάλλει;

Ας το παραδεχτούμε, δεν κατανοήσαμε πόσο μπορούν να χρησιμοποιηθούν τα κοινωνικά δίκτυα για την υποβάθμιση των δύο πυλώνων της όποιας ελεύθερης κοινωνίας – της αλήθειας και της εμπιστοσύνης. Ετσι, αν προσεγγίσουμε την τεχνητή νοημοσύνη εξίσου απερίσκεπτα -αν ακολουθήσουμε ξανά το απερίσκεπτο μάντρα “κινήσου γρήγορα και σπάσε το κατεστημένο” του Μαρκ Ζούκερμπεργκ στην απαρχή των κοινωνικών δικτύων- ω θεέ μου, θα σπάσουμε τα πράγματα γρηγορότερα, σκληρότερα και βαθύτερα απ’ ό,τι μπορεί να φανταστεί κανείς.

«Υπήρξε μια αποτυχία φαντασίας όταν λανσαρίστηκαν τα κοινωνικά δίκτυα και στη συνέχεια μια αποτυχία υπεύθυνης ανταπόκρισης στις αδιανόητες συνέπειες από τη στιγμή που διείσδυσαν στις ζωές δισεκατομμυρίων ανθρώπων» μου είπε ο Ντον Σάιντμαν, ιδρυτής και πρόεδρος της HOW Institute for Society. «Χάσαμε πολύ χρόνο -και τον δρόμο μας- σε μια ουτοπική σκέψη πως τα κοινωνικά δίκτυα μόνο πλεονεκτήματα έχουν, από το να συνδέουν ανθρώπους έως το να τους δίνουν φωνή. Δεν έχουμε τη δυνατότητα ανάλογων αποτυχιών με την τεχνητή νοημοσύνη».

Ως εκ τούτου, υπάρχει μια «επείγουσα επιτακτικότητα -ηθική και ρυθμιστική- πως οι τεχνολογίες τεχνητής νοημοσύνης θα έπρεπε να χρησιμοποιούνται μόνο σε πλαίσιο συμπληρωματικό, αλλά και ανάδειξης αυτού που μας κάνει μοναδικά ανθρώπινους: της δημιουργικότητάς μας, της περιέργειάς μας και της συνεργασίας μας με άλλους» πρόσθεσε ο Σάιντμαν (μέλος του διοικητικού συμβουλίου στο μουσείο Planet Word που ίδρυσε η σύζυγός μου).

«Το ρηθέν πως η μεγάλη δύναμη συμβαδίζει με τη μεγάλη ευθύνη, δεν ήταν ποτέ πιο αληθινό. Δεν αντέχουμε άλλη μια γενιά τεχνολόγων που να διακηρύσσουν την ηθική τους ουδετερότητα και να μας λένε ‘έι, εμείς είμαστε απλά μια πλατφόρμα’, όταν αυτές οι τεχνολογίες ΑΙ επιτρέπουν εκθετικά όλο και πιο ισχυρές και ριζικές μορφές ανθρώπινης ενίσχυσης και αλληλεπίδρασης».

Για αυτούς τους λόγους, ρώτησα τον Τζέιμς Μανίκα, επικεφαλής της ομάδας τεχνολογίας και κοινωνίας της Google, καθώς και της Google Research, όπου διεξάγεται μεγάλο μέρος της καινοτομίας A.I., για τις σκέψεις του σχετικά με τις προσδοκίες και την πρόκληση της τεχνητής νοημοσύνης.

«Πρέπει να είμαστε τολμηροί και υπεύθυνοι ταυτόχρονα» είπε.

«Ο λόγος για τον οποίο πρέπει να είμαστε τολμηροί, είναι πως πολλά διαφορετικά πεδία της ΑΙ έχουν τη δυνατότητα να βοηθούν τους ανθρώπους με τις καθημερινές υποχρεώσεις, να αντιμετωπίζουν κάποιες από τις μεγαλύτερες προκλήσεις της ανθρωπότητας – όπως την υγειονομική φροντίδα, για παράδειγμα- και να προχωρούν σε νέες επιστημονικές ανακαλύψεις, καινοτομίες και αύξηση της παραγωγικότητας που θα οδηγήσουν σε ευρύτερη οικονομική ευημερία».

Θα το κάνουν αυτό, πρόσθεσε, «δίνοντας παντού στους ανθρώπους πρόσβαση στο σύνολο της γνώσης του κόσμου – στη γλώσσα τους, στον τρόπο επικοινωνίας που θα επιλέξουν, μέσω κειμένου, λόγου, εικόνων ή κώδικα», μέσω κινητού, τηλεόρασης, ραδιοφώνου ή e-book. Πολλοί άνθρωποι θα καταφέρουν να εξασφαλίσουν την καλύτερη βοήθεια και τις καλύτερες απαντήσεις για τη βελτίωση της ζωής τους.

Όμως, πρέπει παράλληλα να είμαστε και υπεύθυνοι, πρόσθεσε ο Μανίκα, επικαλούμενος αρκετές ανησυχίες. Κατ’αρχάς, τα εργαλεία αυτά πρέπει να είναι σε πλήρη συμφωνία με τους στόχους της ανθρωπότητας. Δεύτερον, στα λάθος χέρια, τα εργαλεία αυτά μπορούν να προκαλέσουν τεράστιο κακό, είτε μιλάμε για παραπληροφόρηση, πλήρως ψευδείς ειδήσεις ή χάκινγκ (οι κακοί προσαρμόζονται πάντα νωρίς).

Τέλος, «η μηχανική προηγείται της επιστήμης σε κάποιο βαθμό», εξήγησε ο Μανίκα. Με λίγα λόγια, ακόμη κι οι άνθρωποι που αναπτύσσουν τα λεγόμενα μεγάλα μοντέλα γλώσσας που διέπουν προϊόντα όπως το το ChatGPT και το Bard, δεν κατανοούν πλήρως τον τρόπο λειτουργίας τους και το πλήρες εύρος των δυνατοτήτων τους. Μπορούμε να κατασκευάσουμε εξαιρετικά ικανά συστήματα τεχνητής νοημοσύνης, πρόσθεσε, στα οποία να δείξουμε μερικά πρότυπα αριθμητικής, ή μια σπάνια γλώσσα ή εξηγήσεις αστείων, κι αυτά να αρχίσουν να κάνουν περαιτέρω εκπληκτικά πράγματα με τα θραύσματα αυτά γνώσεων. Με άλλα λόγια, δεν κατανοούμε πλήρως ακόμη πόσο περισσότερα καλά ή κακά πράγματα μπορούν να κάνουν αυτά τα συστήματα.

Οπότε, χρειαζόμαστε ένα ρυθμιστικό πλαίσιο, όμως αυτό πρέπει να γίνει προσεκτικά και επαναλαμβανόμενα. Δεν ταιριάζει το ίδιο μέγεθος σε όλους.

Γιατί; Λοιπόν, ανησυχείτε για το ότι η Κίνα θα επικρατήσει της Αμερικής στην τεχνητή νοημοσύνη και θέλετε να επιταχύνετε την καινοτομία μας στο πεδίο αυτό; Οχι, να την επιβραδύνετε. Αν θέλετε να εκδημοκρατίσετε πραγματικά την τεχνητή νοημοσύνη, ίσως να θέλετε να ανοίξετε τον κώδικά του. Αλλά, η ανοιχτή πηγή μπορεί να γίνει πεδίο εκμετάλλευσης. Τι θα έκανε ο ISIS με τον κώδικα; Οπότε, πρέπει να αναλογιστείτε τον έλεγχο όπλων. Αν ανησυχείτε πως τα συστήματα ΑΙ θα επιδεινώσουν τις διακρίσεις, τις παραβιάσεις ιδιωτικότητας και άλλες διχαστικές κοινωνικές παθογένειες, με τον τρόπο που το κάνουν τα κοινωνικά δίκτυα, χρειάζεστε ρυθμιστικό πλαίσιο τώρα.

Αν θέλετε να επωφεληθείτε από όλα τα κέρδη παραγωγικότητας που αναμένεται να παράξει η τεχνητή νοημοσύνη, πρέπει να επικεντρωθείτε στη δημιουργία νέων ευκαιριών και δικτύων ασφαλείας για όλους τους ερευνητές, τους οικονομικούς συμβούλους, τους μεταφραστές και τους εργαζόμενους που θα μπορούσαν να αντικατασταθούν σήμερα, και ίσως τους δικηγόρους και τους προγραμματιστές αύριο. Αν ανησυχείτε πως η τεχνητή νοημοσύνη θα γίνει υπερ-ευφυής και θα αρχίσει να θέτει τους δικούς της στόχους, ανεξαρτήτως από ενδεχόμενη ζημιά στους ανθρώπους, πρέπει να τη σταματήσετε αμέσως.

Ο τελευταίος κίνδυνος είναι αρκούντως ρεαλιστικός ώστε τη Δευτέρα ο Τζέφρι Χίντον, ένας από τους πρωτοπόρους σχεδιαστές συστημάτων ΑΙ, ανακοίνωσε πως εγκαταλείπει την ομάδα τεχνητής νοημοσύνης της Google. Ο Χίντον είπε πως παρότι πιστεύει πως η Google συμπεριφερόταν υπεύθυνα κατά την ανάπτυξη των προϊόντων της ΑΙ, εκείνος επιθυμούσε να είναι ελεύθερος για να μιλήσει για όλους τους κινδύνους. «Είναι δύσκολο να δεις κατά πόσο μπορείς να αποτρέψεις τους ανεύθυνους στη χρήση της ΑΙ για δόλιους σκοπούς» είπε ο Χίντον στον Κέιντ Μετς των Times.

Αν τα αθροίσετε όλα αυτά, προκύπτει το εξής: Εμείς, ως κοινωνία, βρισκόμαστε στο μεταίχμιο του να πρέπει να αποφασίσουμε για κάποια πολύ μεγάλα αντισταθμιστικά μέτρα καθώς λανσάρεται η παραγωγική τεχνητή νοημοσύνη.

Το κρατικό κυβερνητικό πλαίσιο καθ’αυτό δε θα μας σώσει. Έχω έναν απλό κανόνα: Όσο πιο γρήγορος είναι ο ρυθμός αλλαγής και πιο θαυμαστές οι δυνάμεις που αναπτύσσουμε εμείς οι άνθρωποι, τόσο περισσότερο μετρούν τα παλιά και αργά – έχουν μεγαλύτερη σημασία από ποτέ όσα μάθατε στο κατηχητικό ή εκεί απ’όπου αντλείτε ηθική έμπνευση.

Κι όσο περισσότερο κλιμακώνουμε την τεχνητή νοημοσύνη, τόσο περισσότερο πρέπει να κλιμακώνεται κι ο χρυσός αυτός κανόνας: Κάντε για τους άλλους αυτό που θα θέλατε να κάνουν αυτοί για εσάς. Διότι, δεδομένων των ολοένα και μεγαλύτερων δυνάμεων με τις οποίες προικίζουμε τους εαυτούς μας, μπορούμε πλέον να το κάνουμε αυτό ο ένας για τον άλλον ταχύτερα, φθηνότερα και βαθύτερα από ποτέ άλλοτε.

Τεχνητή νοημοσύνη και κλιματική κρίση

Το ίδιο συμβαίνει κι όταν πρόκειται για το κουτί της Πανδώρας του κλίματος που ανοίγουμε. Όπως εξηγεί η NASA εξηγεί στην ιστοσελίδα της, «τα τελευταία 800.000 χρόνια, υπήρξαν οκτώ κύκλοι εποχών παγετώνων και θερμότερων περιόδων». Η τελευταία εποχή παγετώνων έληξε πριν από περίπου 11.700 χρόνια, ανοίγοντας το δρόμο για την τρέχουσα κλιματική εποχή – γνωστή ως Ολόκαινο εποχή – που χαρακτηρίζεται από σταθερές εποχές που επιτρέπουν τη σταθερή ανάπτυξη της γεωργίας, την οικοδόμηση ανθρώπινων κοινοτήτων και τελικά πολιτισμού, όπως τον γνωρίζουμε σήμερα.

«Οι περισσότερες από αυτές τις κλιματικές αλλαγές αποδίδονται σε πολύ μικρές μεταβολές στην τροχιά της Γης που αλλάζουν την ποσότητα της ηλιακής ενέργειας που λαμβάνει ο πλανήτης μας», σημειώνει η NASA.

Λοιπόν, πείτε αντίο σ’αυτό. Υπάρχει πλέον έντονη δημόσια συζήτηση μεταξύ περιβαλλοντολόγων και γεωεπιστημόνων για το αν εμείς οι άνθρωποι οδηγούμαστε μόνοι μας εκτός Ολόκαινου σε μια νέα εποχή που αποκαλείται Ανθρωπόκαινος.

Η ονομασία αυτή προέρχεται από «το “άνθρωπος” και το “καινό” γιατί η ανθρωπότητα, μεταξύ άλλων επιπτώσεων διαρκείας, έχει προκαλέσει μαζικές εξαφανίσεις σε είδη της παγκόσμιας χλωρίδας και πανίδας, έχει μολύνει τους ωκεανούς και τροποποιήσει την ατμόσφαιρα» εξηγεί άρθρο του Smithsonian Magazine.

Επιστήμονες που παρακολουθούν το γήινο σύστημα, εκφράζουν φόβους πως η ανθρωπογενής αυτή εποχή, η Ανθρωπόκαινος, δεν θα έχει καμία από τις προβλέψιμες εποχές της Ολόκαινου. Η γεωργία θα μπορούσε να εξελιχθεί σε εφιάλτη.

Όμως, σ’αυτήν την περίπτωση η τεχνητή νοημοσύνη θα μπορούσε να είναι σωτήρια – επισπεύδοντας τις ανακαλύψεις στην επιστήμη των υλικών, την πυκνότητα των μπαταριών, την ενέργεια σύντηξης και την ασφαλή πυρηνική ενέργεια που θα επιτρέψουν στους ανθρώπους να διαχειριστούν τις αναπόφευκτες πλέον επιπτώσεις της κλιματικής αλλαγής, αποφεύγοντας εκείνες που θα ήταν μη διαχειρίσιμες.

Όμως, αν η τεχνητή νοημοσύνη ανοίγει ένα δρόμο για την ανάσχεση των χειρότερων επιπτώσεων της κλιματικής αλλαγής -αν η ΑΙ στην πράξη μας δίνει μια δεύτερη ευκαιρία- καλύτερα να τη χειριστούμε σωστά. Αυτό σημαίνει με έξυπνες ρυθμίσεις για την ταχεία ενίσχυση της καθαρής ενέργειας και με κλιμακούμενες βιώσιμες αξίες. Αν δεν διαδώσουμε την ηθική της προστασίας -τον σεβασμό για την άγρια φύση κι όσα μας παρέχει δωρεάν, όπως τον καθαρό αέρα και το καθαρό νερό- μπορούμε να καταλήξουμε σε ένα κόσμο όπου οι άνθρωποι νιώθουν πως έχουν το δικαίωμα να κυκλοφορούν σε ένα δάσος με το πλήρως ηλεκτρικό Hummer τους. Αυτό δεν μπορεί να συμβεί.

Συνοψίζοντας: Είμαστε στη διαδικασία όπου ανοίγονται τα δύο αυτά μεγάλα κουτιά της Πανδώρας. Ο Θεός να μας φυλάει αν αποκτήσουμε θεϊκές δυνάμεις ώστε να χωρίσουμε στα δύο την Ερυθρά θάλασσα, αλλά να μην μπορούμε να κατανοήσουμε τις Δέκα Εντολές.

Πηγή: New York Times

spot_img

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Διαβάστε ακόμα

Stay Connected

2,900ΥποστηρικτέςΚάντε Like
2,767ΑκόλουθοιΑκολουθήστε
29,900ΣυνδρομητέςΓίνετε συνδρομητής
- Advertisement -

Τελευταία Άρθρα