Σε μια εκτενή συνέντευξη την περασμένη εβδομάδα, ο CEO της OpenAI, Sam Altman, απάντησε σε μια πληθώρα ηθικών και δεοντολογικών ερωτημάτων σχετικά με την εταιρεία του και το δημοφιλές μοντέλο τεχνητής νοημοσύνης ChatGPT.
«Κοιτάξτε, δεν κοιμάμαι και τόσο καλά τα βράδια. Υπάρχουν πολλά πράγματα που μου προκαλούν βάρος, αλλά μάλλον τίποτα περισσότερο από το γεγονός ότι κάθε μέρα, εκατοντάδες εκατομμύρια άνθρωποι μιλούν με το μοντέλο μας», δήλωσε ο Altman στον πρώην παρουσιαστή του Fox News, Tucker Carlson, σε μια συνέντευξη σχεδόν μίας ώρας.
«Δεν ανησυχώ πραγματικά μήπως πάρουμε τις μεγάλες ηθικές αποφάσεις λάθος», είπε, αν και παραδέχτηκε «ίσως κάνουμε και εκεί λάθη».
Αντίθετα, είπε ότι χάνει τον περισσότερο ύπνο του για τις «πολύ μικρές αποφάσεις» που σχετίζονται με τη συμπεριφορά του μοντέλου, οι οποίες τελικά μπορεί να έχουν τεράστιες συνέπειες.
Αυτές οι αποφάσεις επικεντρώνονται κυρίως στη δεοντολογία που διέπει το ChatGPT και στο ποιες ερωτήσεις το chatbot απαντά ή δεν απαντά. Ακολουθεί μια επισκόπηση μερικών από τα ηθικά διλήμματα που φαίνεται να κρατούν ξάγρυπνο τον Altman.
Σύμφωνα με τον Altman, το πιο δύσκολο ζήτημα με το οποίο παλεύει τελευταία η εταιρεία είναι πώς το ChatGPT προσεγγίζει το θέμα της αυτοκτονίας, με φόντο μια αγωγή από οικογένεια που κατηγόρησε το chatbot για την αυτοκτονία του έφηβου γιου τους.
Ο CEO είπε ότι από τα χιλιάδες άτομα που αυτοκτονούν κάθε εβδομάδα, πολλοί πιθανώς μιλούσαν με το ChatGPT το προηγούμενο διάστημα.
«Πιθανόν να μίλησαν για αυτό και πιθανόν δεν τους σώσαμε τη ζωή», παραδέχτηκε. «Ίσως θα μπορούσαμε να είχαμε πει κάτι καλύτερο. Ίσως να ήμασταν πιο προδραστικοί. Ίσως να είχαμε δώσει καλύτερη συμβουλή του τύπου “πρέπει να ζητήσεις βοήθεια”».
Τον περασμένο μήνα, οι γονείς του Adam Raine κατέθεσαν αγωγή για προϊόν ευθύνης και αδικοπραξίας εναντίον της OpenAI, μετά την αυτοκτονία του γιου τους σε ηλικία 16 ετών. Στην αγωγή αναφέρεται ότι «το ChatGPT βοήθησε ενεργά τον Adam να εξερευνήσει μεθόδους αυτοκτονίας».
Λίγο αργότερα, σε ανάρτηση με τίτλο «Βοηθώντας τους ανθρώπους όταν το έχουν περισσότερο ανάγκη», η OpenAI παρουσίασε σχέδια για τη βελτίωση του τρόπου με τον οποίο το ChatGPT διαχειρίζεται «ευαίσθητες καταστάσεις» και δεσμεύτηκε να αναβαθμίσει την τεχνολογία της ώστε να προστατεύει πιο αποτελεσματικά τα πιο ευάλωτα άτομα.
Πώς καθορίζονται τα ηθικά όρια του ChatGPT;
Ένα ακόμη μεγάλο θέμα στη συνέντευξη ήταν οι αξίες και η ηθική που διαμορφώνουν το ChatGPT.
Ο Altman περιέγραψε το βασικό μοντέλο του ChatGPT ως εκπαιδευμένο στη συλλογική εμπειρία και γνώση της ανθρωπότητας, προσθέτοντας ότι η OpenAI οφείλει να καθορίζει ποιες συμπεριφορές θα έχει το chatbot και ποιες ερωτήσεις δεν θα απαντά.
«Αυτό είναι ένα πολύ δύσκολο πρόβλημα. Έχουμε πλέον πολλούς χρήστες με πολύ διαφορετικές προοπτικές ζωής… Όμως, συνολικά, έχω ευχάριστα εκπλαγεί με την ικανότητα του μοντέλου να μαθαίνει και να εφαρμόζει ένα ηθικό πλαίσιο».
Όταν ρωτήθηκε πώς λαμβάνονται συγκεκριμένες αποφάσεις, είπε ότι η εταιρεία έχει συμβουλευτεί «εκατοντάδες φιλοσόφους της ηθικής και ειδικούς στην τεχνολογία».
Ένα παράδειγμα που έδωσε είναι ότι το ChatGPT έχει ρυθμιστεί ώστε να αποφεύγει να απαντά σε ερωτήσεις για το πώς να κατασκευάσει κανείς βιολογικά όπλα.
«Υπάρχουν ξεκάθαρα παραδείγματα όπου το δημόσιο συμφέρον έρχεται σε έντονη σύγκρουση με την ελευθερία του χρήστη», είπε ο Altman, προσθέτοντας ότι η εταιρεία «δεν θα τα καταφέρει τέλεια και χρειάζεται τη συμβολή της κοινωνίας» για να πάρει αυτές τις αποφάσεις.
Πόσο ιδιωτικό είναι το ChatGPT;
Ένα άλλο σημαντικό ζήτημα ήταν η ιδιωτικότητα των χρηστών, με τον Carlson να υποστηρίζει ότι η γενετική AI μπορεί να χρησιμοποιηθεί για «ολοκληρωτικό έλεγχο».
Ο Altman απάντησε ότι πιέζει την Ουάσιγκτον για την καθιέρωση ενός «προνομίου AI», σύμφωνα με το οποίο όσα λέει ένας χρήστης σε ένα chatbot θα πρέπει να θεωρούνται απολύτως εμπιστευτικά.
«Όταν μιλάτε με έναν γιατρό για την υγεία σας ή με έναν δικηγόρο για τα νομικά σας προβλήματα, η κυβέρνηση δεν μπορεί να πάρει αυτές τις πληροφορίες, σωστά;… Νομίζω ότι πρέπει να έχουμε το ίδιο και για την AI».
Αυτό, είπε, θα επέτρεπε στους χρήστες να συμβουλεύονται chatbots για ιατρικά ή νομικά θέματα χωρίς φόβο. Προς το παρόν, ωστόσο, οι αμερικανικές αρχές μπορούν να ζητήσουν δεδομένα χρηστών μέσω κλήτευσης.
«Είμαι αισιόδοξος ότι θα καταφέρουμε να δείξουμε στην κυβέρνηση πόσο σημαντικό είναι αυτό», σημείωσε.
Θα χρησιμοποιηθεί το ChatGPT σε στρατιωτικές επιχειρήσεις;
Όταν ο Carlson ρώτησε αν το ChatGPT θα χρησιμοποιηθεί από τον στρατό για να βλάψει ανθρώπους, ο Altman δεν έδωσε ξεκάθαρη απάντηση.
«Δεν ξέρω με ποιον τρόπο χρησιμοποιούν σήμερα οι στρατιωτικοί το ChatGPT… αλλά υποψιάζομαι ότι πολλοί μιλούν με το ChatGPT για συμβουλές».
Αργότερα πρόσθεσε ότι δεν είναι σίγουρος «πώς ακριβώς να νιώσει» για αυτό.
Η OpenAI είναι μία από τις εταιρείες AI που έλαβαν σύμβαση 200 εκατ. δολαρίων από το αμερικανικό Υπουργείο Άμυνας για να εφαρμόσουν τη γενετική τεχνητή νοημοσύνη σε στρατιωτικές χρήσεις.
Πόσο ισχυρή είναι πραγματικά η OpenAI;
Κατά τη διάρκεια της συνέντευξης, ο Carlson προέβλεψε ότι με την τρέχουσα πορεία της, η γενετική AI —και κατ’ επέκταση ο Altman— θα μπορούσε να συγκεντρώσει περισσότερη ισχύ από οποιονδήποτε άλλο άνθρωπο, χαρακτηρίζοντας το ChatGPT «θρησκεία».
Ο Altman απάντησε ότι παλιότερα ανησυχούσε πολύ για τη συγκέντρωση ισχύος, αλλά τώρα πιστεύει ότι η AI θα φέρει «μια τεράστια αναβάθμιση» για όλους.
«Αυτό που συμβαίνει τώρα είναι ότι εκατομμύρια άνθρωποι χρησιμοποιούν το ChatGPT και άλλα chatbots, και όλοι είναι πιο ικανοί, όλοι μπορούν να πετυχαίνουν περισσότερα, να ξεκινούν νέες επιχειρήσεις, να ανακαλύπτουν νέα γνώση — και αυτό είναι καλό».
Ωστόσο, παραδέχτηκε ότι η AI θα εξαλείψει πολλές θέσεις εργασίας, ειδικά βραχυπρόθεσμα.