To 2001 οι σπουδαίοι Daft Punk, δύο Γάλλοι που εμφανιζόταν δημόσια φορώντας φουτουριστικές ρομποτικές μάσκες, κυκλοφόρησαν το άλμπουμ Discovery. Mια από τις σημαντικότερες και πιο επιδραστικές κυκλοφορίες ηλεκτρονικής μουσικής όλων των εποχών, από ένα γκρουπ που -μουσικά και καλλιτεχνικά μιλώντας- πάντα ήξερε ακριβώς τι ήθελε να κάνει και είχε την τύχη να κάνει τα πάντα όπως ακριβώς τα σχεδίασε.
Τέταρτο κομμάτι το “Harder, Better, Faster, Stronger”. Πολλοί που διαβάζετε θα το ξέρετε, ακόμα περισσότεροι θα αναγνωρίσετε κάποια στοιχεία του αν το ακούσετε.
Στα πρώτα δευτερόλεπτα ακούγονται κάποιοι κακής ποιότητας ασαφείς ήχοι μαζί με επαναλαμβανόμενα και κάπως αταίριαστα ρυθμικά μοτίβα. Πολύ γρήγορα η ασάφεια μεταμορφώνεται σε μια λειτουργική high end εθιστική λούπα. Στην πορεία προστίθενται κάποιες σκόρπιες λέξεις και φράσεις από παραμορφωμένες ρομποτικές φωνές. Η λούπα δεν βιάζεται, δίνει χώρο και χρόνο για τη σύνθεση των λέξεων και καθώς επαναλαμβάνεται οι φράσεις αποκτούν σταδιακά μορφή και νόημα. Όταν το νόημα έχει γίνει πια σαφές οι ρομποτικές φωνές παίρνουν το πάνω χέρι και αρχίζουν να επιδεικνύουν τις καλλιτεχνικές τους ικανότητες. Ο σκοπός έχει επιτευχθεί, το νόημα αναπαράγεται απερίσπαστο και πλέον η λούπα δουλεύει για τις δικές τους ανάγκες.
Work it
Make it
Do it
Makes us
Harder
Better
Faster
Stronger
More than
Hour
Hour
Never
Ever
After
Work is
Over
Work it
Make it
Do it
Makes us
Harder
Better
Faster
Stronger
Work it harder, make it better
Do it faster, makes us stronger
More than ever, hour after hour
Work is never over
Θυμίζω πως βρισκόμαστε στο 2001, λίγους μήνες πριν την επίθεση της Αλ-Κάιντα στις ΗΠΑ, στην κορύφωση (ενδεχομένως) της καπιταλιστικής εποχής που ζούμε.
Οι Daft Punk με αυτό το κομμάτι δεν ανακαλύπτουν φυσικά τον τροχό. Το μήνυμα των θετικών και αρνητικών επιπτώσεων της άλλοτε σταδιακής άλλοτε ραγδαίας κυριαρχίας της τεχνολογίας σε κάθε πτυχή της ανθρώπινης ζωής (και πρωτίστως στην εργασία) είχε αρχίσει να μεταδίδεται καλλιτεχνικά πολλές δεκαετίες πριν.
Ο λόγος που το #kouragio ασχολείται σήμερα με αυτή την δημιουργία των Daft Punk δεν έχει να κάνει τόσο με την ουσία της σκληρής, επαναλαμβανόμενης και ακούραστης εργασίας που επιβάλλει ο σύγχρονος ανταγωνιστικός κόσμος, αλλά με τον τρόπο με τον οποίο οι Daft Punk επέλεξαν να την εκφράσουν, δίνοντας «φωνή» και χώρο στις ίδιες της μηχανές οι οποίες στη συγκεκριμένη περίπτωση βλέπουν τον άνθρωπο ως ένα εργαλείο που τις κάνει καλύτερες, πιο αποτελεσματικές, δυνατότερες, κι αν κρίνουμε απ’ το κομμάτι και πιο χαρούμενες.
Σήμερα ασχολούμαστε με την Τεχνητή Νοημοσύνη και τα όσα εντυπωσιακά συνέβησαν τις τελευταίες εβδομάδες γύρω από την εταιρεία OpenAI και τον πρώην πρώην, πλέον ξανά νυν, CEO, Sam Altman. Όλα τα προηγούμενα ήταν μια απαραίτητη εισαγωγή.
Όπως έγραψα και στο FB με αφορμή το ενδιαφέρον άρθρο του Νικόλα Σεβαστάκη στη Lifo για τους αποχαλινωμένους Τεχνο-μεσσίες, πιστεύω πως αυτή τη στιγμή αν θέλει να καταλάβει κανείς το πως διαμορφώνεται ο σύγχρονος κόσμος δε νομίζω πως υπάρχει οποιοδήποτε καταλληλότερο θέμα για να ασχοληθεί απ' αυτό της Τεχνητής Νοημοσύνης. Γύρω απ' αυτό αντικατοπτρίζονται *πλήρως* (αν και όχι ακόμα με την ίδια ένταση) όλες οι πλευρές του, σε πολιτικό, οικονομικό, γεωπολιτικό, πολιτισμικό, you name it, επίπεδο.
Με αυτό το σκεπτικό λοιπόν, όταν συντελούνται τόσο ραγδαίες αλλαγές στην εταιρεία που πραγματικά ηγείται αυτού του κλάδου το ενδιαφέρον είναι πολύ μεγαλύτερο και καθόλου τυχαία, όπως θα έχετε παρατηρήσει φαντάζομαι, ο διεθνής Τύπος έχει πέσει με τα μούτρα πάνω στην περίπτωση για να καταλάβει τι πραγματικά συμβαίνει.
Ξεκινώντας απ’ το τελευταίο ας κάνουμε μια γενική παρατήρηση λέγοντας πως για άλλη μια φορά ο Τύπος απέτυχε να κάνει τη βασική του δουλειά, δηλαδή να ενημερώσει απλά και κατανοητά το κοινό για αυτά που εξελίσσονται και το γιατί θα πρέπει να δώσει παραπάνω σημασία. Ίσως είμαι κάπως αυστηρός ή και βιαστικός, θεωρώ όμως λάθος τη στάση όλων σχεδόν των μεγάλων διεθνών ΜΜΕ τα οποία σταμάτησαν να ασχολούνται με το θέμα απ’ τη στιγμή που ο Sam Altman επέστρεψε στην OpenAI. Στο γιατί έφυγε και γιατί επέστρεψε κρύβεται όλη η ουσία, κι αν για το πρώτο ερώτημα υπάρχουν κάποιες απαντήσεις, για το δεύτερο υπάρχουν ελάχιστα στοιχεία πέρα από τις διάφορες εικασίες.
Τι σημασία έχουν όλα αυτά;
To 2018 είχε ξεσπάσει το «σκάνδαλο» παραβίασης προσωπικών δεδομένων του Facebook από την Cambridge Analytica η οποία (χωρίς στην πραγματικότητα να κάνει καμιά φοβερή και περίτεχνη παρανομία) χρησιμοποίησε τα προσωπικά δεδομένα εκατομμυρίων χρηστών με σκοπό, μεταξύ άλλων, να επηρεάσει τις αμερικανικές εκλογές του 2016 υπέρ του Donald Trump και το βρετανικό δημοψήφισμα της ίδιας χρονιάς υπέρ του Βrexit.
Σε βάθος χρόνου το «σκάνδαλο» αυτό και η έρευνα που ακολούθησε έφερε πραγματικά και απτά αποτελέσματα προς όφελος των χρηστών του Facebook. Mαζί μ’ αυτά έφερε και χιουμοριστικά βίντεο σαν το παραπάνω με τον Mark Zuckemberg να καταθέτει το 2018 στο Κογκρέσσο απέναντι σε ανίδεους και τεχνολογικά αναλφάβητους βουλευτές οι οποίοι (φυσιολογικά) ήταν ανίκανοι να κάνουν ουσιώδης ερωτήσεις για το αντικείμενο που ερευνούσαν. Το αποτέλεσμα ήταν να βρίσκεται διαρκώς ο ιδρυτής του Facebook στην αμήχανη θέση να πρέπει να εξηγεί σε ηλικιωμένους ανθρώπους πράγματα που ένα 5χρονο παιδί θα καταλάβαινε ενστικτωδώς παίζοντας με ένα tablet για μια δύο εβδομάδες.
Πρόβλημα πρώτο
Τα παραπάνω δείχνουν απλά ένα μικρό και επιφανειακό κομμάτι της δύναμης και των συνεπειών που έχει η χρήση της κοινωνικής δικτύωσης στην πραγματική ζωή. Ταυτόχρονα φανερώνουν και ένα πολύ μεγάλο πρόβλημα που υπάρχει με τη σημερινή κατάσταση στον τομέα της Τεχνητής Νοημοσύνης.
Το πρόβλημα δεν είναι απλά ο τεχνολογικός αναλφαβητισμός είτε των ελεγκτικών αρχών είτε των χρηστών της Τεχνητής Νοημοσύνης που παράγει η OpenAI ή κάποια άλλη εταιρεία.
Το πραγματικό πρόβλημα (και σε πλήρη αντίθεση με την περίπτωση του FB παραπάνω) είναι πως ούτε και οι ίδιοι οι δημιουργοί αυτών των τεχνoλoγιών μπορούν να είναι σε θέση να κατανοήσουν τη λειτουργία τους στο 100%. Οι αριθμοί έχουν σημασία εδώ. Το 99% δεν είναι αρκετό.
Δεν πρόκειται για υπερβολή. Αυτή είναι η πραγματική πραγματικότητα και πάνω σ’ αυτό το πρόβλημα εργάζονται υπεράριθμοι ερευνητές χωρίς να μπορούν να καταλήξουν σε κάποιο συμπέρασμα. Η Τεχνητή Νοημοσύνη ακόμα και στη σημερινή (σχετικά) απλή και εξευγενισμένη της μορφή όπως μπορεί να τη βρει κανείς στο GPT-4 είτε από την OpenAI, είτε (δωρεάν) από τον Edge Expolorer της Μicrosoft, δεν είναι σύστημα το οποίο ακόμα και μια ομάδα υπερεξειδικευμένων μηχανικών πληροφορικής μπορεί να πει με ασφάλεια πως γνωρίζει πως λειτουργεί και πως ελέγχεται.
Αυτό συμβαίνει για τον εξής λόγο. Είναι πάρα πολύ δύσκολο να εκτελεστούν πραγματικά αποτελεσματικά πειράματα πάνω σε αυτά τα Μεγάλα Γλωσσικά Μοντέλα (LLMs) διότι κανένας άνθρωπος όσες γνώσεις κι αν έχει δεν μπορεί να είναι σε θέση να υπολογίσει τις δισεκατομμύρια παραμέτρους με τις οποίες τα συστήματα αυτά χρησιμοποιούν και συνδυάζουν τα δεδομένα με τα οποία τροφοδοτούνται ώστε να βρει το κατάλληλο πείραμα προς εκτέλεση, όσους ανθρώπινους και οικονομικούς πόρους κι αν διαθέτει. Δεν είναι απλό να υποθέσεις τι πρέπει να ελέγξεις ούτε και πως πρέπει να το κάνεις αυτό.
Απ’ τη στιγμή μάλιστα που τα LLM’s είναι σε θέση να αντλούν, να λειτουργούν και να εκπαιδεύονται πάνω σε νέα δεδομένα σε πραγματικό χρόνο μέσω του internet, τα μόνο πραγματικά 100% αποτελεσματικό μέτρο ελέγχου είναι να βγάλεις τα καλώδια απ’ την πρίζα.
Θα μπορούσε να πει κανείς πως αυτή τη στιγμή τα διάφορα LLMs παρακολουθούν βιντεάκια όπως το παραπάνω και γελάνε με τους διάφορα ερευνητικά project που προσπαθούν να φτάσουν στα πραγματικά τους άκρα κάνοντας διάφορες αστείες ερωτήσεις.
Aς πούμε ότι αυτό το τελευταίο ήταν κάποιου είδος αστείο. Ας πούμε επίσης πως το αστείο αυτό βασίζεται στα τεχνολογικά δεδομένα που γνωρίζουμε μέχρι σήμερα και όχι σ’ αυτά που μπορεί να υπάρχουν και δεν γνωρίζουμε, όπως για παράδειγμα αυτά που υποθετικά έχει έτοιμα η OpenAI και σύμφωνα με ανώνυμες πηγές μέσα από την εταιρεία που δημοσίευσε αποκλειστικά το Reuters ήταν ο πραγματικός λόγος που οδήγησαν το συμβούλιό της να διώξει τon Sam Altman επειδή τα έτρεχε με μεγάλη ταχύτητα.
Ας γίνει κατανοητό το εξής: Οι προκλήσεις που προκύπτουν από τη χρήση της Τεχνητής Νοημοσύνης μικρή σχέση έχουν με ανάλογα προβλήματα από τα κοινωνικά δίκτυα, με ζητήματα προσωπικών δεδομένων, με τεχνολογικές εταιρείες δισεκατομμυρίων και τη διακύμανση των μετοχών τους στα διεθνή χρηματιστήρια. Μιλάμε για μια πραγματικά άλλη τάξη μεγέθους.
Πρόβλημα δεύτερο
Στο τέλος της εμβληματικής πρώτης σκηνής της Οδύσσειας του Διαστήματος του Στάνλεϊ Κιούμπρικ, μόλις σε μερικά κλάσματα του δευτερολέπτου που διαρκεί το κόψιμο για την επόμενη σκηνή, βλέπουμε το στοιχείο που ξεκλείδωσε όλη την εξέλιξη της ανθρωπότητας. Τη χρήση της τεχνολογίας.
Ένα οστό που ξαφνικά μετατράπηκε σε όπλο πετιέται στον αέρα και καταλήγει να ταξιδεύει στο σύμπαν ως διαστημόπλοιο. Αυτός ο τόσο άμεσος τρόπος που επιλέγει ο Κιούμπρικ για να παρουσιάσει την ανθρώπινη πρόοδο δείχνει ταυτόχρονα και την συμβιωτική σχέση των ανθρώπων με τα εργαλεία τους. Σήμερα τα εργαλεία αυτά ονομάζονται και μηχανές. Μια σχέση που απ’ τη στιγμή που ξεκίνησε δεν διακόπηκε ποτέ.
Ο άνθρωπος εξέλιξε τα εργαλεία του και ταυτόχρονα προσάρμοσε τις ανάγκες του σε σχέση με τις δυνατότητές τους. Μια πορεία δεκάδων χιλιάδων χρόνων που ούτε ομαλή ήταν, ούτε ανώδυνη, ούτε χωρίς συνέπειες.
Θα μπορούσε να πει κανείς πως η εξέλιξη της Τεχνητής Νοημοσύνης είναι ακόμα ένα στάδιο αυτής της ανώμαλης, επίπονης και καταστροφικής για κάποιους προόδου;
Η απάντηση θα μπορούσε να είναι ένα απλό «ναι*», αν δεν υπήρχε αυτός ο ενοχλητικός αστερίσκος που όπως φάνηκε στο πρώτο πρόβλημα παραπάνω κανείς δεν μπορεί να είναι 100% σίγουρος για τα προβλήματα και τις συνέπειες που μπορεί να δημιουργήσει. Ούτε καν για το αν αυτές οι συνέπειες αφορούν πολλούς, λίγους ή όλους.
Το δεύτερο πρόβλημα που παρουσιάζεται λοιπόν μάλλον έχει γίνει προφανές. Μπορεί να μπει φρένο στην ανάπτυξη της τεχνολογίας; Μπορεί ο άνθρωπος να διαταράξει τη συμβιωτική σχέση του με τις μηχανές;
Εδώ οι απαντήσεις δεν είναι καθόλου προφανείς ούτε εύκολες και η αναζήτησή τους αρχίζει να δείχνει το πραγματικά μεγάλο μέγεθος του προβλήματος. Ποιος, πως, και πόσο μπορεί να επιβραδύνει ή να ρυθμίσει την τεχνολογική ανάπτυξη; Ποια μπορεί να είναι η πολιτική απάντηση απέναντι σε ένα πρόβλημα που δεν μπορεί να οριοθετηθεί σαφώς;
Kαι τέλος: Είναι αρκετή και ασφαλής η απόσταση που χωρίζει τον φυσικό από τον τεχνητό μας κόσμο στην περίπτωση που κάτι πάει στραβά με τα εργαλεία μας; Σ’ αυτό το τελευταίο εγώ ψηφίζω όχι.
Ας δούμε τώρα ένα σύντομο ιστορικό σε όσα συνέβησαν τις τελευταίες μέρες γύρω από την ΟpenAI:
6 Nοεμβρίου: Mε τον CEO Sam Altman στη σκηνή η ΟpenAI παρουσιάζει το νέο βελτιωμένο της μοντέλο GPT-4 Turbo. Μαζί μ’ αυτό νέες δυνατότητες αναγνώρισης εικόνας, σύστημα μετατροπής κειμένου σε ήχου και βέβαια, αυτό που όλοι περίμεναν, τη δυνατότητα δημιουργίας custom chatGPT’s, δηλαδή τη δυνατότητα στον οποιονδήποτε να φτιάξει το δικό του μοντέλο AI, να εκτελεί τις δικές του εντολές, να το εκπαιδεύσει με δικά του δεδομένα και πάει λέγοντας. O Sam Altman δηλώνει πως αυτά που παρουσιάζονται σύντομα θα μοιάζουν πεπαλαιωμένα σε σχέση με αυτά που ήδη δουλεύονται από την η OpenAI
9 Nοεμβρίου: Οι νέες, επί πληρωμή, εγγραφές χρηστών και η χρήση των νέων συστημάτων ξεπερνά κάθε προσδοκία με αποτέλεσμα το ChatGPT να αντιμετωπίζει πολύ σοβαρά τεχνικά προβλήματα τα οποία το κάνουν ιδιαίτερα δύσχρηστο για πολλές μέρες
12 Νοεμβρίου: Ο Sam Altman κάνει δημόσια πρόσκληση στη Microsoft (που ήδη έχει επενδύσει δισ. και κατέχει το 49% της OpenAI) να κάνει μια νέα μεγάλη επένδυση ώστε να προχωρήσει γρηγορότερα η ανάπτυξη ενός πολύ πιο προηγμένου ΑΙ που θα ξεφεύγει από τον όρο της Τεχνητής Νοημοσύνης και θα πλησιάζει αυτόν της Γενικής Τεχνητής Νοημοσύνης (ΑGI), δηλαδή μιας ανθρώπινης *σχεδόν* νοημοσύνης.
15 Νοεμβρίου: Η OpenAI σταματά να δέχεται νέους χρήστες λόγω τεράστιας ζήτησης και τεχνικών προβλημάτων. Χρήστες αρχίζουν να πωλούν τους λογαριασμούς τους στο e-bay.
17 Nοεμβρίου: Ο Sam Altman απολύεται από την OpenAI με την επίσημη ανακοίνωση να αναφέρει πως «δεν ήταν πάντα ειλικρινής στις αναφορές του προς το διοικητικό συμβούλιο». Ακολουθεί μιντιακό - σοσιαλμιντιακο πανδαιμόνιο με δαιμονιώδη στήριξη προς τον Sam Altman. Κανένα μέλος του συμβουλίου δεν δίνει λεπτομέρειες για τους ακριβείς λόγους της απόλυσης δεχόμενο ακόμα και μετά από μηνύσεις από διάφορους επενδυτές.
20 Noεμβρίου: Η Microsoft ανακοινώνει την πρόσληψη του Sam Altman. Περισσότεροι από 700 από τους συνολικά 770 υπαλλήλους της OpenAI δηλώνουν την πρόθεσή τους να παραιτηθούν για να προσληφθούν στο νέο project του Αltman.
22 Nοεμβρίου: Ο Sam Altman επιστρέφει ως CEO στην OpenAI και ταυτόχρονα αποχωρούν τα μέλη του συμβουλίου που τον απέλυσαν.
23 Nοεμβρίου: Οι δημοσιογράφοι του Reuters, Anna Tong, Jeffrey Dastin and Krystal Hu παρουσιάζουν το ρεπορτάζ με τίτλο: OpenAI researchers warned board of AI breakthrough ahead of CEO ouster, sources say
Ακολουθεί το σχετικό δημοσίευμα-μετάφραση από την Καθημερινή (οι επισημάνσεις δικές μου)
OpenAI: Τον έδιωξαν γιατί τους τρόμαξε – Μεγάλη ανακάλυψη πίσω από την έξοδο Αλτμαν
Συγκερασμό επιστημονικής φαντασίας και επιχειρηματικού θρίλερ μοιάζουν να στοιχειοθετούν όσα βλέπουν το φως της δημοσιότητας τις τελευταίες ημέρες σχετικά με το τι ακριβώς συνέβη στους κόλπους της πρωτοπόρου εταιρείας τεχνητής νοημοσύνης OpenAI. Και ειδικότερα ως προς το τι ακριβώς οδήγησε στην απόλυση του επικεφαλής της, Σαμ Αλτμαν, ποιο ήταν το πρόβλημα αλλά και πώς αποφασίστηκε η επεισοδιακή ανάκληση της απόλυσης τέσσερις ημέρες αργότερα. Στο σενάριο υπάρχει αφενός ένα στέλεχος, ένας χαρισματικός και φιλόδοξος γκουρού της πλέον εξελιγμένης τεχνολογίας τεχνητής νοημοσύνης, ο οποίος κινείται ενδεχομένως τολμηρά και αφετέρου υπάρχει το διοικητικό συμβούλιο της εταιρείας που ανησυχεί και προσπαθεί να τηρήσει κανόνες δεοντολογίας για να αποτρέψει τυχόν ολέθριες συνέπειες. Πιέζεται, όμως, ασφυκτικά από τους υποστηρικτές του τολμηρού στελέχους και στο τέλος ενδίδει.
Στελέχη της OpenAI πιστεύουν πως το νέο μοντέλο μπορεί να αποτελεί το μέγα άλμα στην αναζήτηση της «γενικής τεχνητής νοημοσύνης».
Κάτι τέτοιο φαίνεται να συνέβη στην OpenAI όπως προκύπτει από αποκλειστικό ρεπορτάζ του Reuters, σύμφωνα με το οποίο την απόλυση του Αλτμαν προκάλεσε επιστολή μερίδας των ερευνητών που εργάζονται στην OpenAI. Απευθυνόμενοι στο Δ.Σ. της εταιρείας οι ερευνητές εξέφραζαν την ανησυχία τους για μια πανίσχυρη ανακάλυψη της τεχνητής νοημοσύνης που θα απειλήσει την ανθρωπότητα. Η προειδοποίηση στάθηκε καθοριστική αλλά οι πηγές της εταιρείας που ανέφεραν εμπιστευτικά τις πληροφορίες τόνισαν πως η επίμαχη επιστολή προσετέθη σε έναν μακρύ κατάλογο από προβληματισμούς και ανησυχίες των μελών του Δ.Σ. για τον Αλτμαν. Ο ίδιος ο Αλτμαν, άλλωστε, είχε μόλις την περασμένη εβδομάδα δηλώσει σε συνέδριο στο Σαν Φρανσίσκο ότι πίστευε πως βρίσκεται προ των πυλών μεγάλης ανακάλυψης. Ολα αυτά σε συνδυασμό οδήγησαν στην απόλυση του Αλτμαν. Ανάμεσα στα άλλα ζητήματα που είχαν προκαλέσει έντονο προβληματισμό στα μέλη του Δ.Σ. ήταν και η ανησυχία τους για ενδεχόμενη πρόωρη εμπορευματοποίηση των ανακαλύψεων της τεχνητής νοημοσύνης προτού μελετηθούν και κατανοηθούν πλήρως οι πιθανές συνέπειές τους.
Οπως τονίζει το Reuters, μετά την επαφή που είχε με την OpenAI, η εταιρεία παραδέχθηκε σε εσωτερικό μήνυμα προς το προσωπικό της ότι αιτία του προβληματισμού ήταν ένα σχέδιο με ονομασία Q* μαζί με την επιστολή των στελεχών προς το Δ.Σ. και αυτά προκάλεσαν όσα συνέβησαν τις τελευταίες ημέρες. Εκπρόσωπος της εταιρείας ανέφερε επίσης ότι το μήνυμα το είχε στείλει η Μίρα Μουράτι, επί χρόνια στέλεχος της OpenAI, με αποτέλεσμα να προκαλέσει συναγερμό στο προσωπικό της ευαισθητοποιώντας τα στελέχη σε ορισμένα δημοσιεύματα του Τύπου. Ορισμένοι από τους υπαλλήλους της OpenAI πιστεύουν πως το Q*, που προφέρεται Κιου-σταρ, δηλαδή Κιου – αστέρι, μπορεί να αποτελεί το μέγα άλμα στην αναζήτηση της «γενικής τεχνητής νοημοσύνης», μια θεαματική πρόοδο δηλαδή στα αυτόνομα συστήματα που θα υπερβαίνουν τις δυνατότητες των ανθρώπων σχεδόν σε όλο εύρος της οικονομικής δραστηριότητας. Πιο συγκεκριμένα, με τις τεράστιες δυνατότητες υπολογιστικής, το νέο μοντέλο θα είναι σε θέση να επιλύσει συγκεκριμένα μαθηματικά προβλήματα.
Αυτό εκτιμούν τουλάχιστον οι πηγές της OpenAI που μίλησαν στο Reuters σε καθεστώς ανωνυμίας. Διευκρίνισαν ότι έως τώρα το σχέδιο έχει επιλύσει μόνον μαθηματικά επιπέδου λυκείου αλλά έχει εμπνεύσει ιδιαίτερη αισιοδοξία στους ερευνητές και οπαδούς της τεχνητής νοημοσύνης σε ό,τι αφορά το μέλλον και τις δυνατότητές της να επιτύχει. Σημειωτέον ότι οι ερευνητές θεωρούν πως τα μαθηματικά θα είναι το σύνορο που θα περάσει η τεχνητή νοημοσύνη όταν θα σημειώσει ουσιώδη πρόοδο.
Μέχρι στιγμής η τεχνητή νοημοσύνη είναι αποτελεσματική στη συγγραφή και στη μετάφραση κειμένων σε διαφορετικές γλώσσες καθώς με στατιστικές μεθόδους εντοπίζει την επόμενη λέξη, ενώ συχνά ποικίλλουν οι απαντήσεις στην ίδια ερώτηση. Αν, όμως, έχει την ικανότητα να απαντά σε μαθηματικές ερωτήσεις, που επιδέχονται μία και μόνον μία σωστή απάντηση, τότε η τεχνητή νοημοσύνη θα έχει μεγαλύτερες νοητικές ικανότητες και θα προσομοιάζει στην ανθρώπινη νοημοσύνη. Και βέβαια αν επιτευχθεί αυτό θα τεθεί στο μικροσκόπιο των νέων επιστημονικών ερευνών.
Ως εκ τούτου στην επιστολή τους προς το Δ.Σ., οι ερευνητές της OpenAI έθεσαν θέμα ισχύος της τεχνητής νοημοσύνης και ενδεχόμενου κινδύνου. Οι ίδιες πηγές που μίλησαν στο Reuters δεν ανέφεραν, πάντως, πιο συγκεκριμένα τι είδους ζητήματα ασφάλειας παραθέτουν οι ερευνητές στην επιστολή τους. Επί χρόνια βρίσκεται σε εξέλιξη ένας δημόσιος διάλογος ανάμεσα στην επιστημονική κοινότητα σχετικά με τους κινδύνους που ενδεχομένως εγκυμονούν οι ιδιαίτερα ευφυείς μηχανές όπως, για παράδειγμα, αν αποφάσιζαν κάποια στιγμή ότι η καταστροφή της ανθρωπότητας θα εξυπηρετούσε τα συμφέροντά τους.
Μια μικρή σύνοψη
Οι Daft Punk κάνουν επιτυχία με ένα κομμάτι που «αυτοβελτιώνεται» καθώς εξελίσσεται στο οποίο κάποια ρομπότ ανακαλύπτουν την απελευθέρωση της εργασίας και ευχαριστούν τους ανθρώπους που τις έφτιαξαν.
Ο ιδρυτής του Facebook προσπαθεί να εξηγήσει σε κάποιους βουλευτές πόσο φυσιολογικό είναι να εργάζονται για αυτόν εκατομμύρια άνθρωποι παρέχοντάς του τα προσωπικά τους δεδομένα, την ίδια στιγμή που κατηγορείται πως μέσω αυτών των δεδομένων και των αλγορίθμων που δημιούργησε επηρεάστηκαν δύο κοσμοϊστορικές εκλογικές αναμετρήσεις.
Ένας ανθρωποειδής πίθηκος σκοτώνει ένα άλλο, μεγαλύτερο και δυνατότερο ανθρωποειδή πίθηκο όταν ανακαλύπτει το πρώτο όπλο-εργαλείο της ανθρωπότητας. Η αλλιώς: Ένας ανθρωποειδής πίθηκος ανακαλύπτει πως λειτουργεί ένα εργαλείο και το πρώτο πράγμα που κάνει με αυτό είναι να σκοτώσει τον πιο δυνατό αντίπαλο ανθρωποειδή πίθηκο.
Την ίδια στιγμή που κανείς δεν μπορεί να εξακριβώσει πλήρως τα όρια της υπαρκτής τεχνητής νοημοσύνης αυτή βελτιώνεται ακόμα περισσότερο και μάλλον ετοιμάζεται να μιλήσει τη «γλώσσα του σύμπαντος», τα μαθηματικά, με ορατό ενδεχόμενο να μπορεί να γίνει 100% ακριβής σε βασικές λειτουργίες της. Εκατοντάδες εκατομμύρια άνθρωποι την εκπαιδεύουν καθημερινά. Κάποιοι πληρώνουν χρήματα στο άλλους για να μη στερηθούν αυτή τη δυνατότητα.
Work it harder, make it better
Do it faster, makes us stronger
More than ever, hour after hour
Work is never over
Επιδόρπιο
Το σημερινό #kouragio ολοκληρώνεται όπως ξεκίνησε. Με ένα τραγούδι. Όχι όμως για απάνθρωπες μηχανές που θα μας καταπιούν, αλλά για την πανίσχυρη, βαθιά ανθρώπινη και πολλές φορές ανεξέλεγκτη δύναμη της επιθυμίας, όπου κι αν αυτή οδηγεί.
Από την Cleo Sol που μιλά για το Θεό ίσως ή για το GodGPT ίσως.
Την δική της επιθυμία να τροφοδοτεί, να αναπαράγει και να πραγματώνει τις δικές της φαντασιώσεις ποιος ακριβώς θα την ελέγξει; Εδώ είναι που αρχίζουν τα δύσκολα στο δυτικό μας ημισφαίριο.
And they wonder why you changed my life / You made things right, stood by my side / Like a lullaby, you soothed my mind / You helped me smile, opened my eyes
I'm in a plastic world with you / But it's your lovin' that makes me feel real
Where have you been my life / Desire
And I'm wondering if you know you're my / Desire
I wonder can we share our lives / Desire
Το #kouragio θα επιστρέψει σύντομα με κάποια απ’ τα πολλά απολαυστικά μουσικά albums που κυκλοφόρησαν φέτος. Ήταν μια πολύ καλή μουσική χρονιά. Προτείνω να μην προσπεράσετε.
Αυτά για την ώρα,
χχ
#kouragio