Ο δεκάλογος του ChatGPT

--

Με τη συνηθισμένη μικρή καθυστέρηση, τα Ελληνικά μέσα και social media ανακάλυψαν το ChatGPT και, όπως συνήθως, έφεραν την καταστροφή. Δέκα μικρές ερωτήσεις και απαντήσεις ή, όπως θα έλεγε ο τίτλος μιας αρχαίας τηλεοπτικής εκπομπής, “Μύθοι και Πραγματικότητα” για το ChatGPT.

Μια συνταγή για tiramisu όπως θα την περιέγραφε ο Eminem
Μια συνταγή για tiramisu όπως θα την περιέγραφε ο Eminem
  1. Τι είναι το ChatGPT;

To ChatGPT ανήκει στην κατηγορία των Large Language Models (Μεγάλο Γλωσσικό Μοντέλο — ΜΓΜ) και αποσκοπεί στη δημιουργία κειμένων σε πραγματικό χρόνο σαν απόκριση σε μικρά κείμενα που δίνουν οι χρήστες, τα λεγόμενα prompts. Κάποιες περιπτώσεις στις οποίες μπορούμε να χρησιμοποιήσουμε ΜΓΜ είναι η δημιουργία περιλήψεων από μεγαλύτερα κείμενα, η μετάφραση ανάμεσα σε δύο διαφορετικές γλώσσες, η παραγωγή κώδικα στον προγραμματισμό ή η δημιουργία εικόνων από κείμενο (π.χ., όπως στο Stable Diffusion). Το ChatGPT δεν είναι ούτε το μεγαλύτερο τέτοιο μοντέλο, αν λάβουμε υπόψιν τη δυνατότητα προσαρμογής στα κείμενα με τα οποία εκπαιδεύτηκε, ούτε στο σύνολο των κειμένων που χρησιμοποιήθηκαν — είναι όμως η πλατφόρμα που είναι πιο εύκολα χρησιμοποιήσιμη από έναν οποιοδήποτε χρήστη, βοηθώντας την να ξεπεράσει το 1.000.000 χρήστες σε λιγότερο από μια εβδομάδα.

2. Πώς δουλεύει το ChatGPT;

Όπως συμβαίνει σε αρκετές περιπτώσεις στη Μηχανική Μάθηση, το ChatGPT προσπαθεί να ανακαλύψει συνδέσεις ανάμεσα στο prompt και το κείμενο που πρέπει να παράξει σε κάθε περίπτωση, έτσι ώστε να μπορέσει να ανταποκριθεί σε prompts που δεν αντιστοιχούν σε κείμενα που έχει ξαναδεί ( “μια ιστορία για έναν μονόκερο που έγινε φίλος με ένα τζιτζίκι”). Για να μάθει να το κάνει αυτό, οι ερευνητές το “τάισαν” με κείμενα που ήταν ελεύθερα διαθέσιμα στο internet, όπως κείμενα από websites ή βιβλία, χωρίς να του υποδείξουν τι και πώς πρέπει να απαντά σε κάθε prompt, αφήνοντάς το να ανακαλύψει μόνο του τις συνδέσεις που μπορεί να υπάρχουν. Σε αντίθεση με συστήματα επιβλεπόμενης μάθησης (supervised learning), όπου οι υπολογιστές μαθαίνουν βλέποντας παραδείγματα, σε συνδυασμό με το τι θα πρέπει να απαντούν όταν βλέπουν κάτι συγκεκριμένο (π.χ., “αυτή είναι μια φωτογραφία ενός άσπρου σκύλου”), οι ερευνητές εδώ ακολούθησαν μια μη-επιβλεπόμενη λογική, ελπίζοντας ότι το ChatGPT θα είναι τελικά αποτελεσματικό, επειδή ακριβώς τα κείμενα ήταν τόσα, μα τόσα πολλά. Το κλειδί, ή μάλλον ένα από τα κλειδιά στην επιτυχία αυτής της υλοποίησης, ήταν ότι σε κάθε βήμα της εκπαίδευσης στην παραγωγή κειμένου, το ChatGPT προσπαθεί να ελαχιστοποιήσει τη διαφορά ανάμεσα στα prompts και τα επιμέρους κείμενα πάνω στα οποία έχει εκπαιδευτεί. Με αυτόν τον τρόπο, το ChatGPT καταφέρνει να αποτυπώσει το ξεχωριστό στυλ κάθε είδους κειμένου ή ακόμα και διαφορετικών συγγραφέων — έτσι, μπορεί να μας γράψει ένα ποίημα στο στυλ του Eminem ή στο στυλ του Donald Trump, ακόμα κι αν δεν του είναι δυνατό να κατανοήσει τι θα πει “ποίημα” ή το σε τι συνίσταται το στυλ του κου Marshall Mathers ή του αξέχαστου Αμερικανού προέδρου.

3. Είναι καλύτερο το ChatGPT από το Google;

Το ChatGPT είναι ένα ΜΓΜ που προσπαθεί να βρει συσχετίσεις ανάμεσα σε στοιχεία των prompts και το τι παράγει σαν κείμενο. Οι συσχετίσεις αυτές δημιουργήθηκαν με βάση προκαθορισμένα κείμενα και ολοκληρώθηκαν μέσα στο 2021 — αυτό σημαίνει ότι δεν έχει πρόσβαση σε κείμενα που δημιουργήθηκαν μετά. Αλλά ακόμα κι έτσι, επειδή το κείμενο που μας δίνει το ChatGPT δημιουργείται δυναμικά, προσπαθώντας να ελαχιστοποιήσει το σφάλμα εκπαίδευσης που αναφέρθηκε πριν, δεν είναι προφανές ότι ανταποκρίνεται σε κάποιο συγκεκριμένο κείμενο από αυτά με τα οποία το εκπαιδεύσαμε — έτσι, είναι πολύ πιθανό το κείμενο που θα μας δώσει αυτή η τεχνολογία να περιέχει αντικειμενικά σφάλματα (factual errors) ή ακόμα και λογικές αντιφάσεις. Αυτό το φαινόμενο οφείλεται στον αλγόριθμο με τον οποίο το ChatGPT προσπαθεί να δημιουργήσει αυτές τις συσχετίσεις: οι Transformers προσπαθούν να εκτιμήσουν το βάρος που θα ρίξουν σε καθένα από τα τμήματα του prompt (για παράδειγμα, “ποίημα”, “Eminem” και “Trump” στο προηγούμενο παράδειγμα) και να δημιουργήσουν ένα κείμενο που να ανταποκρίνεται όσο το δυνατόν καλύτερα σε καθένα από αυτά. Με αυτό το δεδομένο, λοιπόν, ο στόχος των ΜΓΜ δεν είναι σε καμιά περίπτωση να απαντήσουν σε ερωτήματα μέσα από ένα αδόμητο και άγνωστο σύνολο από κείμενα, όπως κάνει μια μηχανή αναζήτησης — από την άλλη, η λογική των Transformers είναι τέτοια που να διευκολύνει τη λεπτομερή έκφραση των prompts κι έτσι να δίνει σαφέστερα αποτελέσματα, όσο πιο λεπτομερές είναι και ένα prompt.

Εικόνα ενός χαρακτήρα transformer δημιουργημένη από Τεχνητή Νοημοσύνη
Αυτός είναι ο λάθος …transformer, αλλά έχει δημιουργηθεί κι αυτός από ένα Μεγάλο Γλωσσικό Μοντέλο :-)

4. Γιατί τότε έχει ανησυχήσει τόσο πολύ η Google/Alphabet, ενώ η Microsoft “τρέχει” να το ενσωματώσει στη δική της μηχανή αναζήτησης;

Το πιο πιθανό use case μιας τεχνολογίας τύπου GPT στις μηχανές αναζήτησης δεν είναι για να επιστρέψει διαφορετικά αποτελέσματα, αλλά για να διανθίσει τα αποτελέσματα, απαντώντας με διαφορετικό τρόπο στις ερωτήσεις μας. Για παράδειγμα, αν κάποιος ψάξει το “νόημα της ζωής” στο Google, η μηχανή αναζήτησης θα επιστρέψει πρώτα τα αποτελέσματα που ταυτίζονται με το κείμενο αναζήτησης κι έτσι θα ξεκινήσει με τα βιβλία ή τα άρθρα που έχουν τον συγκεκριμένο τίτλο. Από την άλλη, το ChatGPT επειδή ακριβώς ενσωματώνει τα νοήματα και τις εκφράσεις από χιλιάδες κείμενα, μπορεί να αντιμετωπίσει το ερώτημα συνολικότερα, θυσιάζοντας όμως (όπως είπαμε πριν) τη σαφήνεια και την ακρίβεια της αναφοράς σε ένα ή περισσότερα συγκεκριμένα κείμενα.

Αυτό σημαίνει ότι η Microsoft, που φαίνεται να χάνει το “παιχνίδι” στο θέμα της αναζήτησης στο internet (όλοι λέμε “γκούγκλαρέ το”, όταν αναφερόμαστε στην αναζήτηση, όπως λέγαμε “ας κάνουμε ένα skype” όταν μιλούσαμε για τηλεδιάσκεψη), έχει στα χέρια της μια χρυσή ευκαιρία στο να ενσωματώσει το ChatGPT στη δική της μηχανή αναζήτησης, εξοπλίζοντάς την με δυνατότητες chatbox, ώστε να γίνει πιο φιλική στους χρήστες, καλύπτοντας έτσι την υστέρησή της στο ζήτημα της ποιότητας και της αξιοπιστίας της αναζήτησης.

5. Έγραψα ένα κείμενο με το ChatGPT — θα το “πιάσει” ένα λογισμικό λογοκλοπής, σαν το TurnItIn;

Όχι. Το κείμενο που θα σας δώσει το ChatGPT δημιουργείται δυναμικά κι έτσι οι έλεγχοι που κάνουν τα σχετικά λογισμικά θα υπολογίσουν πολύ μικρό ποσοστό ομοιότητας με υπάρχοντα κείμενα, όπως βιβλία που έχουν ήδη εκδοθεί ή επιστημονικές δημοσιεύσεις. Ακόμα κι αν χρησιμοποιήσουμε μια παράγραφο από ένα βιβλίο και ζητήσουμε από το ChatGPT να το διατυπώσει διαφορετικά (rephrase), οι ανιχνευτές λογοκλοπής δε θα το εντοπίσουν. Παράλληλα, επειδή κάθε φορά που “τρέχουμε” τον αλγόριθμο, θα μας δώσει διαφορετικό αποτέλεσμα σαν κείμενο (το οποίο κείμενο θα ανταποκρίνεται στο prompt), μπορούμε θεωρητικά να δημιουργήσουμε πολλαπλά κείμενα, με εννοιολογική ομοιότητα, αλλά όχι συντακτική.

Αυτό δε σημαίνει ότι δεν υπάρχουν ηθικά και μάλλον και νομικά ζητήματα με μια τέτοια τεχνολογία, κυρίως σε ό,τι αφορά στο σύνολο των κειμένων με το οποίο εκπαιδεύτηκαν — με δεδομένες τις νομικές εξελίξεις που περιμένουμε σε σχέση με όλα τα συστήματα χρησιμοποιούν transformers για να παράξουν κείμενα, εικόνες ή τρισδιάστατα μοντέλα, σίγουρα υπάρχει πρόβλημα με τη χρήση περιεχομένου που προστατεύεται από πνευματική ιδιοκτησία για την εκπαίδευσή τους. Όπως είναι δομημένες αυτές οι αρχιτεκτονικές μηχανικής μάθησης, μπορεί να είναι δυνατό να εντοπίσουμε τα χαρακτηριστικά που είναι σημαντικά για να γράψουμε ένα κείμενο, για παράδειγμα, στο στυλ του Dan Brown ή του George Orwell, αλλά δε μπορούμε να αποδείξουμε ότι το ChatGPT έχει εκπαιδευτεί χρησιμοποιώντας τα βιβλία τους. Η ίδια η OpenAI που διαθέτει τη συγκεκριμένη πλατφόρμα αναφέρει ότι “ είναι πιθανό” να έχουν χρησιμοποιηθεί τέτοια κείμενα για την εκπαίδευση, κινούμενη (όπως η ίδια αναφέρει) στη γκρίζα ζώνη ανάμεσα στη διαθεσιμότητα ενός κειμένου στο internet και την άδεια να το χρησιμοποιήσουμε σε ένα άλλο προϊόν, ακόμα κι αν αυτό είναι (προς το παρόν) δωρεάν. Ήδη, πλατφόρμες που χρησιμοποιούν οι visual artists για να διακινήσουν το περιεχόμενο που δημιουργούν, όπως το Artstation, κινούνται προς την κατεύθυνση του να αποκλείσουν τη χρήση του περιεχομένου τους από τέτοιες πλατφόρμες, χωρίς όμως να είναι προφανές το τι θα γίνει με όσα συστήματα έχουν ήδη εκπαιδευτεί.

6. Μπορώ να καταλάβω ότι κάποιος χρησιμοποίησε το ChatGPT για να γράψει μια εργασία;

Υπάρχουν πειραματικά ή εμπορικά εργαλεία (σαν αυτό ή αυτό) που εκτιμούν την πιθανότητα να έχει παραχθεί ένα κείμενο με έναν αλγόριθμο σαν το GPT στις διάφορες εκδόσεις του, ειδικά αν το prompt που έχουμε χρησιμοποιήσει αποτελείται από 5–6 λέξεις και δεν είναι και τόσο λεπτομερές (άρα, η απάντηση είναι ναι).

Από την άλλη, με λίγη …στοργή και προδέρμ, μπορούμε να μειώσουμε σημαντικά την πιθανότητα που θα υπολογίσουν τα εργαλεία εντοπισμού κι έτσι να περάσουμε έναν τέτοιο έλεγχο. Για παράδειγμα, μπορούμε να αλλάξουμε τη σειρά των παραγράφων στο κείμενο ή να διανθίσουμε το prompt μας με συγκεκριμένα στυλ γραφής — αν στο “write a paragraph on the benefits of AI” προσθέσουμε το “in the style of Barney Stinson”, το κείμενό μας θα γίνει:

“Legendary news, my friend! AI is the ultimate wingman for all things tech. It’s got game, it’s got style, it’s got efficiency on lock. With AI, gone are the days of boring, repetitive tasks and mediocre decision-making. It’s all about enhancing the human experience, giving us personalized services and solving big problems with ease. And, I’m telling you, AI is creating a whole new playing field for job opportunities. So, suit up and get ready to experience the benefits of AI — it’s gonna be legen…wait for it…dary!”

και οι detectors θα επιστρέψουν σχεδόν 100% βεβαιότητα ότι το έχει γράψει ο αγαπημένος (;) χαρακτήρας από το How I Met Your Mother και όχι το ChatGPT (άρα, η απάντηση είναι όχι)

7. Μπορώ να γράψω μια επιστημονική εργασία με το ChatGPT;

Το ChatGPT δε φαίνεται να είναι εκπαιδευμένο με το στυλ επιστημονικών εργασιών κι έτσι δε μπορεί να δημιουργήσει κείμενο που να ανταποκρίνεται στα ιδιαίτερα χαρακτηριστικά τους: σύνοψη/περίληψη στην αρχή του κειμένου, εισαγωγή με σχετική βιβλιογραφία και ερευνητικά ερωτήματα, πειραματικό μέρος και σχολιασμό/συζήτηση (άρα, όχι)

Από την άλλη, πρέπει να έχουμε στο μυαλό μας ότι το ChatGPT είναι ΕΝΑ μόνο σύστημα GPT, εκπαιδευμένο με ENA σύνολο κειμένων — μπορούμε πολύ εύκολα να χρησιμοποιήσουμε ένα τέτοιο μοντέλο, προσθέτοντας στο σύνολο δεδομένων και επιστημονικές δημοσιεύσεις, οπότε να μπορέσουμε με αυτόν τον τρόπο να δημιουργήσουμε και σχετικά κείμενα. Ένα παράδειγμα τέτοιου συστήματος είναι το https://www.perplexity.ai/, με το οποίο μπορούμε εύκολα να συγκεντρώσουμε βιβλιογραφία για ένα ερώτημα. Για παράδειγμα, το ερώτημα “Can I use Action Units to synthesize emotions on an avatar?” θα μου δώσει την παρακάτω απάντηση

Yes, action units can be used to synthesize emotions on an avatar[1][2][3][4][5]. Synthesis AI provides over 150 action unit-based expressions for robust emotion tracking model development[3], and Diana’s facial expressions were synthesized by designated combinations of action units and controlled by the linear movements of facial morph targets[1][4]. Additionally, a high-fidelity open embodied avatar with lip synchronization can be controlled via a simple python interface using either bone positions, action units or basic expressions[5].

Με τις αναφορές στις εργασίες

Wang H, Gaddy V, Beveridge JR, Ortega FR. Building an Emotionally Responsive Avatar with Dynamic Facial Expressions in Human — Computer Interactions. Multimodal Technologies and Interaction. 2021; 5(3):13. https://doi.org/10.3390/mti5030013

Zhang, S., Wu, Z., Meng, H.M., Cai, L. (2010). Facial Expression Synthesis Based on Emotion Dimensions for Affective Talking Avatar. In: Nishida, T., Jain, L.C., Faucher, C. (eds) Modeling Machine Emotions for Realizing Intelligence. Smart Innovation, Systems and Technologies, vol 1. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-12604-8_6

https://synthesis.ai/applications/avatar-creation/

Aneja, D., McDuff, D., & Shah, S. (2019, October). A high-fidelity open embodied avatar with lip syncing and expression capabilities. In 2019 International Conference on Multimodal Interaction (pp. 69–73).

Από την άλλη, το ChatGPT θα μας επιστρέψει ένα σύνολο από σχετικές δημοσιεύσεις, αν στο prompt αναφέρουμε ότι ψάχνουμε βιβλιογραφία, χωρίς όμως να τις αναφέρει μέσα στο κείμενο που θα μας γράψει (άρα, ναι, υπό προϋποθέσεις)

8. Τι καταλαβαίνει το ChatGPT από όσα έχει εκπαιδευτεί; Είναι το σύνολο της ανθρώπινης σοφίας αυτό;

Νομίζω ότι τα ΜΓΜ είναι ό,τι πιο κοντά έχουμε αυτή τη στιγμή στο “σύνολο της ανθρώπινης σοφίας”, ειδικά από τη στιγμή που δεν κάνουμε απλά αναζήτηση σε μεμονωμένα κείμενα, αλλά έχουμε μια συνολική εικόνα σε ένα πραγματικά τεράστιο σώμα κειμένων.

Από την άλλη, δεν έχουμε τη δυνατότητα να ορίσουμε το τι σημαίνει “στο στυλ του Eminem” με τρόπο που να είναι κατανοητός από τους ανθρώπους — μπορούμε να φτιάξουμε ένα βιογραφικό σημείωμα, μια αναπαραγωγή της Οδύσσειας και μια συνταγή για τιραμισού στο συγκεκριμένο στυλ, αλλά δε μπορούμε να φτιάξουμε μια λίστα από bullets που να μπορούμε να ακολουθήσουμε έξω από το ChatGPT. Γενικά, στη Μηχανική Μάθηση θυσιάζουμε σε μεγάλο ποσοστό (ή ακόμα και εντελώς) αυτήν τη δυνατότητα, προκειμένου να μπορέσουμε να μοντελοποιήσουμε πολύπλοκα φαινόμενα όπως είναι η ανθρώπινη έκφραση. Ένα ερευνητικό αντικείμενο που θα είναι στο επίκεντρο του ενδιαφέροντος για τα επόμενα 20–30 χρόνια είναι αυτό της “ερμηνευσιμότητας” ή “μεταφρασιμότητας” (interpretability ή explainability), δηλαδή η κατανόηση του πώς δουλεύουν η Μηχανική Μάθηση και η Τεχνητή Νοημοσύνη, ποια χαρακτηριστικά των κειμένων, εικόνων, ακτινογραφιών που τους δίνουμε θεωρούν σημαντικά και πώς τα χρησιμοποιούν για να εκτιμήσουν το αποτέλεσμά τους. Το πρόβλημα είναι ότι, ακόμα κι εμείς οι επιστήμονες των Υπολογιστών, στην προσπάθειά μας να φτιάξουμε συστήματα που θα έχουν ολοένα και μεγαλύτερα ποσοστά επιτυχίας στην αναγνώριση ενός ατόμου από βίντεο του προσώπου του ή από καταγραφές της φωνής του, στηριχθήκαμε σε πολύπλοκες ιδέες Μηχανικής Μάθησης: ακούμε συχνά για Deep Learning, δηλαδή πολύπλοκα και διαδοχικά στρώματα επεξεργασίας, στα οποία τελικά χάνεται η έννοια του ποιο χαρακτηριστικό είναι σημαντικό και πώς χρησιμοποιείται για την τελική εκτίμηση. Τελικά, αυτό που παίρνουμε στα χέρια μας μοιάζει πολύ με αυτό που περιέγραφε ο μύθος για την Πυθία: μπορεί να απαντήσει σε όλα μας τα ερωτήματα, αλλά δε μπορεί να μοιραστεί μαζί μας το πώς έφτασε σε αυτές τις απαντήσεις.

9. Θα χάσω τη δουλειά μου από το ChatGPT;

Αυτό μπορούμε να το συζητάμε επ’ άπειρον, είτε σε φιλοσοφικό επίπεδο, είτε σε σχέση με την κοινωνική πραγματικότητα. Στη διάρκεια της ανθρώπινης ιστορίας, η τεχνολογία στερεί θέσεις εργασίας (από αγρότες, όταν φτιάξαμε τα τρακτέρ ή από εργάτες, όταν αρχίσαμε να χρησιμοποιούμε τις μηχανές ή από οδηγούς, όταν αρχίσουμε να χρησιμοποιούμε σε μεγάλη κλίμακα τα αυτόνομα αυτοκίνητα, κοκ.), αλλά δημιουργεί περισσότερες σε άλλους τομείς, όπως είναι οι υπηρεσίες, οι μεταφορές ή η διακίνηση προϊόντων. Έτσι, η παραγωγικότητα και η απασχόληση, γενικά, φαίνονταν να πηγαίνουν χεράκι-χεράκι, ακόμα κι αν αυτό σήμαινε ότι έκλειναν τα εργοστάσια στις Η.Π.Α. και άνοιγαν στην Κίνα ή έκλειναν στη Δυτική Ευρώπη και άνοιγαν στην Ανατολική.

Αλλά (πάντα υπάρχει ένα “αλλά”) η τάση αυτή φαίνεται να έχει διακοπεί από το τέλος του προηγούμενου αιώνα: η παραγωγικότητα αυξάνεται, χάρη στην τεχνολογία, αλλά η απασχόληση εμφανίζει τάση μείωσης. Αυτό το φαινόμενο έχει ξαναφέρει στο προσκήνιο τη συζήτηση για το ελάχιστο εγγυημένο εισόδημα, αλλά αυτή ξεφεύγει από την αναφορά στο ChatGPT.

10. Τι μπορώ να κάνω για να προστατεύσω τη δουλειά μου από το ChatGPT;

“Και τις συναφείς τεχνολογίες”, θα πρόσθετα. Αυτό που πρέπει να θυμόμαστε είναι ότι οι υπολογιστές κάνουν δύο και μόνο δύο δουλειές καλύτερα (αλλά, πολύ καλύτερα) από εμάς: κάνουν σκανδαλωδώς γρήγορα στοιχειώδεις υπολογισμούς (κυριολεκτικά, προσθέσεις) και αποθηκεύουν, διακινούν και επεξεργάζονται τεράστιες ποσότητες δεδομένων. Δε θέλουμε καν να σκεφτούμε πόσα χρόνια/αιώνες/χιλιετίες θα χρειαζόταν ένας άνθρωπος να διαβάσει έστω και μια φορά όλα τα κείμενα με τα οποία εκπαιδεύτηκε το ChatGPT, χωρίς βέβαια να υπάρχει καμία περίπτωση να τα “έχει όλα στο νου” του ανά πάσα στιγμή. Το ζήτημα είναι ότι, αν η δουλειά μου είναι δυνατόν να γίνει από το ChatGPT, ο εργοδότης μου θα επιλέξει να την κάνει με αυτόν τον τρόπο, πιο εύκολα και κυρίως πιο οικονομικά: αν παίρνω την πρόβλεψη για τη διακύμανση της αυριανής θερμοκρασίας και τα σχετικά καιρικά φαινόμενα από κάποια υπηρεσία σαν το Weather.com, δεν υπάρχει κανένας απολύτως λόγος να φορτώσω έναν δημοσιογράφο με το να γράψει το κείμενο για την πρόγνωση του καιρού για ένα website ή τηλεοπτικό σταθμό. Προσοχή: το ChatGPT δε θα κάνει την ίδια την πρόγνωση, ούτε θα τσεκάρει το weather.com για τις θερμοκρασίες, καθώς δεν έχει δυνατότητες reasoning σαν το Wolfram Alpha, ούτε και πρόσβαση σε κείμενα ή ιστοσελίδες έξω από το σύνολο εκπαίδευσης — αναφέρομαι μόνο στο κείμενο που θα αναρτηθεί ή που θα εκφωνηθεί από έναν παρουσιαστή, παράλληλα με τις αριθμητικές τιμές της πρόγνωσης. Ούτε προβλέπω ότι οι μετεωρολόγοι θα εξαφανιστούν: οι προβλέψεις πάνω στις οποίες στηρίζονται οι επιστήμονες συνοδεύονται, και αυτές, από κάποιον συντελεστή βεβαιότητας ή πιθανότητας, ενώ δεν είναι σπάνιο να έχουμε ελαφρά διαφορετικές προβλέψεις από διαφορετικά μοντέλα πρόβλεψης. Αυτό είναι ένα χαρακτηριστικό παράδειγμα όπου ένας επιστήμονας θα αξιοποιήσει την Τεχνητή Νοημοσύνη, αναθέτοντάς της τις βαρετές και επαναλαμβανόμενες εργασίες, όπως τη συλλογή δεδομένων από αισθητήρες ή τη συσχέτιση των προτύπων που μπορεί να ακολουθούν με παλιότερες παρατηρήσεις, και να αφήσει για τον εαυτό του το δύσκολο και ενδιαφέρον κομμάτι της τελικής πρόγνωσης και του σχετικού διαστήματος εμπιστοσύνης.

Από την άλλη, αν η εργασία μου μπορεί να γίνει ένα σύνολο από αριθμητικές πράξεις πάνω σε μεγάλα σώματα δεδομένων, τότε η μόνη περίπτωση να μη βρεθώ δίπλα στα …μαμούθ και τους δεινοσαύρους είναι, και πάλι, να μάθω να αξιοποιώ την ευφυή τεχνολογία για να δημιουργήσω γρήγορα και αποτελεσματικά, ενδιαφέρον περιεχόμενο. Πριν 20 χρόνια κάναμε την ίδια συζήτηση για το Photoshop και το κατά πόσον θα περιόριζε την εργασία στους γραφίστες ή τους φωτογράφους: τελικά, όχι μόνο δεν την περιόρισε, αλλά όσοι είναι …μάγοι στις τεχνολογίες επεξεργασίας εικόνας έχουν περισσότερη και καλύτερα αμειβόμενη δουλειά, αγγίζοντας συχνά τα όρια του αισθητικού αποτελέσματος ενός ζωγράφου.

Originally published at https://medium.com on January 30, 2023.

--

--

Κώστας Καρπούζης (@kkarpou)

Επικ. καθηγητής στο Πάντειο (Digital humanities), Μέλος της Εθνικής Επιτροπής Βιοηθικής και Τεχνοηθικής, 3x TEDx speaker, geekdad, Αιώνια Πιστός, #HereWeGo