[ad_1]
Το OpenAI σχηματίζει μια νέα ομάδα με επικεφαλής τον Ilya Sutskever, τον επικεφαλής επιστήμονά του και έναν από τους συνιδρυτές της εταιρείας, για την ανάπτυξη τρόπων καθοδήγησης και ελέγχου «υπερέξυπνων» συστημάτων AI.
Σε μια ανάρτηση ιστολογίου που δημοσιεύτηκε σήμερα, ο Sutskever και ο Jan Leike, επικεφαλής της ομάδας ευθυγράμμισης στο OpenAI, προβλέπουν ότι η τεχνητή νοημοσύνη με νοημοσύνη μεγαλύτερη από αυτή των ανθρώπων θα μπορούσε να φτάσει μέσα στην επόμενη δεκαετία. Αυτή η τεχνητή νοημοσύνη – αν υποθέσουμε ότι θα φτάσει, πράγματι, τελικά – δεν θα είναι απαραίτητα καλοπροαίρετη, απαιτώντας έρευνα για τρόπους ελέγχου της, λένε οι Sutskever και Leike.
«Προς το παρόν, δεν έχουμε λύση για την οδήγηση ή τον έλεγχο μιας δυνητικά υπερευφυούς τεχνητής νοημοσύνης και την αποτροπή του από το να γίνει αδίστακτο», γράφουν. «Οι τρέχουσες τεχνικές μας για την ευθυγράμμιση της τεχνητής νοημοσύνης, όπως η ενισχυτική μάθηση από την ανθρώπινη ανατροφοδότηση, βασίζονται στην ικανότητα των ανθρώπων να επιβλέπουν την τεχνητή νοημοσύνη. Αλλά οι άνθρωποι δεν θα μπορούν να επιβλέπουν αξιόπιστα συστήματα τεχνητής νοημοσύνης πολύ πιο έξυπνα από εμάς».
Για να προχωρήσει η βελόνα στον τομέα της «ευθυγράμμισης υπερευφυΐας», το OpenAI δημιουργεί μια νέα ομάδα Superallignment, με επικεφαλής τόσο τον Sutskever όσο και τον Leike, η οποία θα έχει πρόσβαση στο 20% των υπολογισμών που έχει εξασφαλίσει η εταιρεία μέχρι σήμερα. Μαζί με επιστήμονες και μηχανικούς από την προηγούμενη ομάδα ευθυγράμμισης του OpenAI καθώς και ερευνητές από άλλους οργανισμούς σε όλη την εταιρεία, η ομάδα θα επιδιώξει να λύσει τις βασικές τεχνικές προκλήσεις του ελέγχου της υπερευφυούς τεχνητής νοημοσύνης τα επόμενα τέσσερα χρόνια.
Πως? Χτίζοντας αυτό που περιγράφουν οι Sutskever και Leike ως «αυτοματοποιημένος ερευνητής ευθυγράμμισης σε ανθρώπινο επίπεδο». Ο στόχος είναι να εκπαιδεύσουμε συστήματα τεχνητής νοημοσύνης χρησιμοποιώντας την ανθρώπινη ανατροφοδότηση, να εκπαιδεύσουμε την τεχνητή νοημοσύνη για να βοηθήσουμε στην αξιολόγηση του ανθρώπου και τελικά να δημιουργήσουμε τεχνητή νοημοσύνη που μπορεί να κάνει έρευνα ευθυγράμμισης. (Εδώ, η «έρευνα ευθυγράμμισης» αναφέρεται στη διασφάλιση ότι τα συστήματα AI επιτυγχάνουν τα επιθυμητά αποτελέσματα.)
Είναι η υπόθεση του OpenAI ότι η τεχνητή νοημοσύνη μπορεί να κάνει ταχύτερη και καλύτερη ερευνητική πρόοδο ευθυγράμμισης από ό,τι οι άνθρωποι.
«Καθώς σημειώνουμε πρόοδο σε αυτό, τα συστήματα τεχνητής νοημοσύνης μας μπορούν να αναλάβουν όλο και περισσότερο την εργασία ευθυγράμμισης και τελικά να συλλάβουν, να εφαρμόσουν, να μελετήσουν και να αναπτύξουν καλύτερες τεχνικές ευθυγράμμισης από ό,τι έχουμε τώρα», εξηγούν οι Leike και οι συνάδελφοι John Schulman και Jeffrey Wu. προηγούμενη ανάρτηση ιστολογίου. «Θα συνεργαστούν με τους ανθρώπους για να διασφαλίσουν ότι οι διάδοχοί τους είναι πιο ευθυγραμμισμένοι με τους ανθρώπους. Οι ανθρώπινοι ερευνητές θα εστιάζουν όλο και περισσότερο στην προσπάθειά τους στην αναθεώρηση της έρευνας ευθυγράμμισης που γίνεται από συστήματα τεχνητής νοημοσύνης αντί να παράγουν αυτήν την έρευνα μόνοι τους.»
Φυσικά, καμία μέθοδος δεν είναι αλάνθαστη — και οι Leike, Schulman και Wu αναγνωρίζουν τους πολλούς περιορισμούς του OpenAI στην ανάρτησή τους. Η χρήση της τεχνητής νοημοσύνης για αξιολόγηση έχει τη δυνατότητα να κλιμακώσει τις ασυνέπειες, τις προκαταλήψεις ή τα τρωτά σημεία σε αυτό το AI. Και μπορεί να αποδειχθεί ότι τα πιο δύσκολα μέρη του προβλήματος ευθυγράμμισης μπορεί να μην σχετίζονται με τη μηχανική.
Αλλά ο Sutskever και ο Leike πιστεύουν ότι αξίζει να το πάτε.
«Η ευθυγράμμιση της υπερευφυΐας είναι ουσιαστικά ένα πρόβλημα μηχανικής μάθησης και πιστεύουμε ότι οι σπουδαίοι ειδικοί μηχανικής μάθησης —ακόμα κι αν δεν εργάζονται ήδη για την ευθυγράμμιση— θα είναι κρίσιμοι για την επίλυσή του», γράφουν. «Σκοπεύουμε να μοιραστούμε τους καρπούς αυτής της προσπάθειας ευρέως και θεωρούμε τη συμβολή στην ευθυγράμμιση και την ασφάλεια των μοντέλων που δεν είναι OpenAI ως σημαντικό μέρος της δουλειάς μας».
[ad_2]
Source link


