Πιστεύει ότι αυτό το χαρακτηριστικό θα μπορούσε να ενσωματωθεί σε συστήματα τεχνητής νοημοσύνης, αλλά δεν είναι σίγουρος.
«Νομίζω ότι ναι», είπε ο Άλτμαν όταν τέθηκε η ερώτηση κατά τη διάρκεια μιας συνέντευξης με την ανώτερη αναπληρώτρια κοσμήτορα του Harvard Business School, Deborah Spahr.
Το θέμα της ανόδου της τεχνητής νοημοσύνης ήταν κάποτε το μοναδικό θέμα της επιστημονικής φαντασίας του Isaac Asimov ή των ταινιών δράσης του James Cameron. Αλλά με την έλευση της τεχνητής νοημοσύνης, έχει γίνει, αν όχι ένα πιεστικό ζήτημα, τουλάχιστον ένα θέμα συζήτησης που αξίζει να εξεταστεί πραγματικά. Αυτό που κάποτε θεωρούνταν το σκεπτικό της μανιβέλας έχει γίνει τώρα ένα γνήσιο κανονιστικό ζήτημα.
Η σχέση του OpenAI με την κυβέρνηση ήταν «αρκετά εποικοδομητική», είπε ο Άλτμαν. Πρόσθεσε ότι ένα έργο τόσο εκτεταμένο και εκτεταμένο όσο η ανάπτυξη της τεχνητής νοημοσύνης θα έπρεπε να ήταν κυβερνητικό έργο.
«Σε μια κοινωνία που λειτουργεί καλά, αυτό θα ήταν ένα κυβερνητικό έργο», είπε ο Άλτμαν. «Δεδομένου ότι αυτό δεν συμβαίνει, νομίζω ότι είναι καλύτερο να συμβεί με αυτόν τον τρόπο, όπως το αμερικανικό σχέδιο».
Η ομοσπονδιακή κυβέρνηση δεν έχει κάνει ακόμη σημαντική πρόοδο στη νομοθεσία για την ασφάλεια της τεχνητής νοημοσύνης. Υπήρξαν προσπάθειες στην Καλιφόρνια να ψηφιστεί νομοθεσία που θα καθιστούσε υπεύθυνους τους προγραμματιστές τεχνητής νοημοσύνης για καταστροφικά γεγονότα, όπως η χρήση τους για την ανάπτυξη όπλων μαζικής καταστροφής ή επιθέσεις σε υποδομές ζωτικής σημασίας. Το νομοσχέδιο πέρασε από το νομοθετικό σώμα, αλλά άσκησε βέτο από τον κυβερνήτη της Καλιφόρνια, Γκάβιν Νιούσομ.
Ορισμένες εξέχουσες προσωπικότητες στον τομέα της τεχνητής νοημοσύνης προειδοποιούν ότι η διασφάλιση της πλήρους ευθυγράμμισης με το όφελος της ανθρωπότητας είναι ένα κρίσιμο ζήτημα. Ο βραβευμένος με Νόμπελ Τζέφρι Χίντον, γνωστός ως νονός της τεχνητής νοημοσύνης, είπε ότι δεν μπορούσε «να δει ένα μονοπάτι που να εγγυάται την ασφάλεια». Ο Διευθύνων Σύμβουλος της Tesla, Έλον Μασκ, έχει προειδοποιήσει τακτικά ότι η τεχνητή νοημοσύνη θα μπορούσε να οδηγήσει στην εξαφάνιση του ανθρώπου. Ο Μασκ έπαιξε καθοριστικό ρόλο στην ίδρυση του OpenAI, παρέχοντας στον μη κερδοσκοπικό οργανισμό σημαντική χρηματοδότηση από την αρχή. Χρηματοδότηση για την οποία ο Άλτμαν παραμένει «ευγνώμων» παρά το γεγονός ότι έχει μηνυθεί από τον Μασκ.
Τα τελευταία χρόνια, έχουν εμφανιστεί αρκετοί οργανισμοί, όπως το μη κερδοσκοπικό Alignment Research Center και η startup Safe Superintelligence, που ιδρύθηκε από έναν πρώην ερευνητή του OpenAI, που επικεντρώνονται αποκλειστικά σε αυτό το θέμα.
Το OpenAI δεν απάντησε σε αίτημα για σχολιασμό.
Σύμφωνα με τον Altman, η τεχνητή νοημοσύνη στην τρέχουσα μορφή της είναι κατάλληλη για συντονισμό. Ως εκ τούτου, υποστηρίζει, θα είναι ευκολότερο από ό,τι φαίνεται να διασφαλιστεί ότι η τεχνητή νοημοσύνη δεν βλάπτει την ανθρωπότητα.
«Ένα από τα πράγματα που λειτούργησε εκπληκτικά καλά είναι η δυνατότητα συντονισμού του συστήματος AI ώστε να συμπεριφέρεται με συγκεκριμένο τρόπο», είπε. «Επομένως, αν μπορούμε να διατυπώσουμε τι σημαίνει αυτό σε πολλές διαφορετικές περιπτώσεις, τότε, ναι, νομίζω ότι μπορούμε να κάνουμε το σύστημα να ενεργήσει με αυτόν τον τρόπο».
Ο Altman έχει επίσης μια τυπικά μοναδική ιδέα για το πώς ακριβώς το OpenAI και άλλοι προγραμματιστές θα μπορούσαν να «αρθρώσουν» τις αρχές και τα ιδανικά που απαιτούνται για να διατηρήσουμε την τεχνητή νοημοσύνη στο πλευρό μας: να χρησιμοποιήσουμε AI για δημοσκόπηση στο ευρύ κοινό. Πρότεινε να ρωτηθούν οι χρήστες τεχνητά ευφυών chatbots σχετικά με τις αξίες τους και στη συνέχεια να χρησιμοποιηθούν αυτές οι απαντήσεις για να καθοριστεί πώς να ρυθμιστεί η τεχνητή νοημοσύνη για την προστασία της ανθρωπότητας.
«Με ενδιαφέρει ένα πείραμα σκέψης [in which] Το AI συνομιλεί μαζί σας για μερικές ώρες για το σύστημα αξιών σας», είπε. «Κάνει το ίδιο πράγμα σε μένα και σε όλους τους άλλους. Και μετά λέει: «Εντάξει, δεν μπορώ να κάνω τους πάντες χαρούμενους συνέχεια».
Ο Altman ελπίζει ότι επικοινωνώντας με δισεκατομμύρια ανθρώπους και κατανοώντας τους «σε βαθύ επίπεδο», η τεχνητή νοημοσύνη θα είναι σε θέση να εντοπίσει τα προβλήματα που αντιμετωπίζει η κοινωνία ευρύτερα. Στη συνέχεια, η τεχνητή νοημοσύνη θα είναι σε θέση να επιτύχει συναίνεση σχετικά με το τι πρέπει να κάνει για να επιτύχει τη συνολική ευημερία της κοινωνίας.
Το AI έχει μια εσωτερική ομάδα υπερευθυγράμμισης επιφορτισμένη με τη διασφάλιση ότι η μελλοντική ψηφιακή υπερευφυΐα δεν θα ξεφύγει από τον έλεγχο και δεν θα προκαλέσει ανείπωτη ζημιά. Τον Δεκέμβριο του 2023, η ομάδα δημοσίευσε μια πρώιμη ερευνητική εργασία που έδειξε ότι εργαζόταν σε μια διαδικασία με την οποία ένα μεγάλο γλωσσικό μοντέλο θα έλεγχε ένα άλλο. Αυτή την άνοιξη, οι ηγέτες αυτής της ομάδας, Sutskever και Jan Leike, αποχώρησαν από το OpenAI. Η ομάδα τους διαλύθηκε, σύμφωνα με ρεπορτάζ του CNBC εκείνη την εποχή.
Ο Leike είπε ότι είχε αφήσει αυξανόμενες διαφορές με τη διοίκηση του OpenAI σχετικά με τη δέσμευσή της για ασφάλεια, καθώς η εταιρεία εργαζόταν για την τεχνητή γενική νοημοσύνη, έναν όρο που αναφέρεται σε τεχνητή νοημοσύνη που είναι τόσο έξυπνη όσο ένας άνθρωπος.
«Η κατασκευή μηχανών που είναι πιο έξυπνες από τους ανθρώπους είναι μια εγγενώς επικίνδυνη προσπάθεια», έγραψε ο Leike στο X. «Το OpenAI αναλαμβάνει μια τεράστια ευθύνη για λογαριασμό ολόκληρης της ανθρωπότητας. Όμως, τα τελευταία χρόνια, η κουλτούρα και οι διαδικασίες ασφάλειας έχουν πέσει στο περιθώριο υπέρ των λαμπρών προϊόντων».
Όταν ο Leike έφυγε, ο Altman έγραψε στο X ότι ήταν «πολύ ευγνώμων γι’ αυτό [his] συνεισφορά στο openai [sic] Έρευνα για την κουλτούρα ευθυγράμμισης και ασφάλειας».