[ad_1]
Τον περασμένο μήνα, εκατοντάδες γνωστοί άνθρωποι στον κόσμο της τεχνητής νοημοσύνης υπέγραψαν μια ανοιχτή επιστολή προειδοποιώντας ότι η τεχνητή νοημοσύνη θα μπορούσε μια μέρα να καταστρέψει την ανθρωπότητα.
«Ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελεί παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος», ανέφερε η δήλωση με μία πρόταση.
Η επιστολή ήταν η πιο πρόσφατη σε μια σειρά δυσοίωνων προειδοποιήσεων σχετικά με την τεχνητή νοημοσύνη που ήταν ιδιαίτερα ελαφριές σε λεπτομέρειες. Τα σημερινά συστήματα AI δεν μπορούν να καταστρέψουν την ανθρωπότητα. Μερικά από αυτά μετά βίας μπορούν να προσθέσουν και να αφαιρέσουν. Γιατί λοιπόν ανησυχούν τόσο πολύ οι άνθρωποι που γνωρίζουν τα περισσότερα για την τεχνητή νοημοσύνη;
Το τρομακτικό σενάριο.
Μια μέρα, λένε οι Κασσάνδρες της βιομηχανίας τεχνολογίας, εταιρείες, κυβερνήσεις ή ανεξάρτητοι ερευνητές θα μπορούσαν να αναπτύξουν ισχυρά συστήματα τεχνητής νοημοσύνης για να χειριστούν τα πάντα, από επιχειρήσεις έως πόλεμο. Αυτά τα συστήματα θα μπορούσαν να κάνουν πράγματα που εμείς δεν θέλουμε να κάνουν. Και αν οι άνθρωποι προσπαθούσαν να παρέμβουν ή να τους κλείσουν, θα μπορούσαν να αντισταθούν ή ακόμα και να αναπαραχθούν για να συνεχίσουν να λειτουργούν.
«Τα σημερινά συστήματα δεν είναι πουθενά κοντά στο να θέτουν υπαρξιακό κίνδυνο», δήλωσε ο Yoshua Bengio, καθηγητής και ερευνητής τεχνητής νοημοσύνης στο Πανεπιστήμιο του Μόντρεαλ. «Μα σε ένα, δύο, πέντε χρόνια; Υπάρχει υπερβολική αβεβαιότητα. Αυτό είναι το θέμα. Δεν είμαστε σίγουροι ότι αυτό δεν θα περάσει κάποιο σημείο όπου τα πράγματα θα γίνουν καταστροφικά».
Οι ανησυχούντες έχουν χρησιμοποιήσει συχνά μια απλή μεταφορά. Αν ζητήσετε από ένα μηχάνημα να δημιουργήσει όσο το δυνατόν περισσότερους συνδετήρες, λένε, θα μπορούσε να παρασυρθεί και να μετατρέψει τα πάντα — συμπεριλαμβανομένης της ανθρωπότητας — σε εργοστάσια συνδετήρων.
Πώς συνδέεται αυτό με τον πραγματικό κόσμο – ή έναν φανταστικό κόσμο όχι πάρα πολλά χρόνια στο μέλλον; Οι εταιρείες θα μπορούσαν να δώσουν στα συστήματα τεχνητής νοημοσύνης όλο και μεγαλύτερη αυτονομία και να τα συνδέσουν με ζωτικής σημασίας υποδομές, συμπεριλαμβανομένων των δικτύων ηλεκτρικής ενέργειας, των χρηματιστηρίων και των στρατιωτικών όπλων. Από εκεί και πέρα, μπορεί να δημιουργήσουν προβλήματα.
Για πολλούς ειδικούς, αυτό δεν φαινόταν και τόσο εύλογο μέχρι τον περασμένο χρόνο, όταν εταιρείες όπως το OpenAI επέδειξαν σημαντικές βελτιώσεις στην τεχνολογία τους. Αυτό έδειξε τι θα μπορούσε να είναι δυνατό εάν η τεχνητή νοημοσύνη συνεχίσει να προχωρά με τόσο γρήγορο ρυθμό.
«Η τεχνητή νοημοσύνη θα ανατίθεται σταθερά και θα μπορούσε –καθώς γίνεται πιο αυτόνομη– να σφετεριστεί τη λήψη αποφάσεων και τη σκέψη από τους σημερινούς ανθρώπους και τα ανθρώπινα ιδρύματα», δήλωσε ο Anthony Aguirre, κοσμολόγος στο Πανεπιστήμιο της Καλιφόρνια στη Σάντα Κρουζ και ιδρυτής του Future of Life Institute, ο οργανισμός πίσω από μία από τις δύο ανοιχτές επιστολές.
«Κάποια στιγμή, θα γινόταν σαφές ότι η μεγάλη μηχανή που διοικεί την κοινωνία και την οικονομία δεν είναι πραγματικά υπό τον ανθρώπινο έλεγχο, ούτε μπορεί να απενεργοποιηθεί, όπως και ο S&P 500 θα μπορούσε να κλείσει», είπε.
Ή έτσι λέει η θεωρία. Άλλοι ειδικοί της τεχνητής νοημοσύνης πιστεύουν ότι είναι μια γελοία υπόθεση.
“Υποθετικός είναι ένας τόσο ευγενικός τρόπος να διατυπώσω αυτό που σκέφτομαι για την ομιλία για τον υπαρξιακό κίνδυνο”, δήλωσε ο Oren Etzioni, ο ιδρυτής διευθύνων σύμβουλος του Allen Institute for AI, ενός ερευνητικού εργαστηρίου στο Σιάτλ.
Υπάρχουν ενδείξεις ότι η τεχνητή νοημοσύνη θα μπορούσε να το κάνει αυτό;
ΟΧΙ ακριβως. Αλλά οι ερευνητές μετατρέπουν chatbots όπως το ChatGPT σε συστήματα που μπορούν να κάνουν ενέργειες με βάση το κείμενο που δημιουργούν. Ένα έργο που ονομάζεται AutoGPT είναι το κύριο παράδειγμα.
Η ιδέα είναι να δώσουμε στο σύστημα στόχους όπως «δημιουργία εταιρείας» ή «βγάλτε κάποια χρήματα». Στη συνέχεια, θα συνεχίσει να αναζητά τρόπους για την επίτευξη αυτού του στόχου, ιδιαίτερα εάν είναι συνδεδεμένο με άλλες υπηρεσίες Διαδικτύου.
Ένα σύστημα όπως το AutoGPT μπορεί να δημιουργήσει προγράμματα υπολογιστή. Εάν οι ερευνητές του δώσουν πρόσβαση σε έναν διακομιστή υπολογιστή, θα μπορούσε πραγματικά να εκτελέσει αυτά τα προγράμματα. Θεωρητικά, αυτός είναι ένας τρόπος για το AutoGPT να κάνει σχεδόν τα πάντα στο διαδίκτυο — να ανακτά πληροφορίες, να χρησιμοποιεί εφαρμογές, να δημιουργεί νέες εφαρμογές, ακόμη και να βελτιώνεται.
Συστήματα όπως το AutoGPT δεν λειτουργούν καλά αυτήν τη στιγμή. Τείνουν να κολλάνε σε ατελείωτες θηλιές. Οι ερευνητές έδωσαν σε ένα σύστημα όλους τους πόρους που χρειαζόταν για να αναπαραχθεί. Δεν μπορούσε να το κάνει.
Με τον καιρό, αυτοί οι περιορισμοί θα μπορούσαν να διορθωθούν.
«Οι άνθρωποι προσπαθούν ενεργά να δημιουργήσουν συστήματα που αυτοβελτιώνονται», δήλωσε ο Connor Leahy, ιδρυτής της Conjecture, μιας εταιρείας που λέει ότι θέλει να ευθυγραμμίσει τις τεχνολογίες AI με τις ανθρώπινες αξίες. «Προς το παρόν, αυτό δεν λειτουργεί. Αλλά κάποια μέρα, θα γίνει. Και δεν ξέρουμε πότε είναι αυτή η μέρα».
Ο κ. Leahy υποστηρίζει ότι καθώς οι ερευνητές, οι εταιρείες και οι εγκληματίες δίνουν σε αυτά τα συστήματα στόχους όπως «να βγάλουν κάποια χρήματα», θα μπορούσαν να καταλήξουν να σπάσουν σε τραπεζικά συστήματα, να υποδαυλίσουν την επανάσταση σε μια χώρα όπου κατέχουν συμβόλαια μελλοντικής εκπλήρωσης πετρελαίου ή να αναπαράγουν τον εαυτό τους όταν κάποιος προσπαθεί να τα μετατρέψει. μακριά από.
Πού μαθαίνουν τα συστήματα AI να συμπεριφέρονται άσχημα;
Τα συστήματα AI όπως το ChatGPT είναι χτισμένα σε νευρωνικά δίκτυα, μαθηματικά συστήματα που μπορούν να μάθουν δεξιότητες αναλύοντας δεδομένα.
Γύρω στο 2018, εταιρείες όπως η Google και το OpenAI άρχισαν να κατασκευάζουν νευρωνικά δίκτυα που διδάσκονταν από τεράστιες ποσότητες ψηφιακού κειμένου που συλλέγονταν από το Διαδίκτυο. Εντοπίζοντας μοτίβα σε όλα αυτά τα δεδομένα, αυτά τα συστήματα μαθαίνουν να δημιουργούν από μόνα τους γραφή, συμπεριλαμβανομένων άρθρων ειδήσεων, ποιημάτων, προγραμμάτων υπολογιστή, ακόμη και συνομιλιών που μοιάζει με ανθρώπινη. Το αποτέλεσμα: chatbots όπως το ChatGPT.
Επειδή μαθαίνουν από περισσότερα δεδομένα από όσα μπορούν να καταλάβουν ακόμη και οι δημιουργοί τους, αυτά τα συστήματα παρουσιάζουν επίσης απροσδόκητη συμπεριφορά. Οι ερευνητές έδειξαν πρόσφατα ότι ένα σύστημα μπόρεσε να προσλάβει έναν άνθρωπο διαδικτυακά για να νικήσει ένα τεστ Captcha. Όταν ο άνθρωπος ρώτησε αν ήταν «ρομπότ», το σύστημα είπε ψέματα και είπε ότι ήταν άτομο με προβλήματα όρασης.
Ορισμένοι ειδικοί ανησυχούν ότι καθώς οι ερευνητές κάνουν αυτά τα συστήματα πιο ισχυρά, εκπαιδεύοντάς τα σε όλο και μεγαλύτερες ποσότητες δεδομένων, θα μπορούσαν να μάθουν περισσότερες κακές συνήθειες.
Ποιοι είναι οι άνθρωποι πίσω από αυτές τις προειδοποιήσεις;
Στις αρχές της δεκαετίας του 2000, ένας νεαρός συγγραφέας ονόματι Eliezer Yudkowsky άρχισε να προειδοποιεί ότι η τεχνητή νοημοσύνη θα μπορούσε να καταστρέψει την ανθρωπότητα. Οι διαδικτυακές του αναρτήσεις δημιούργησαν μια κοινότητα πιστών. Ονομαζόμενη ορθολογιστές ή αποτελεσματικοί αλτρουιστές, αυτή η κοινότητα απέκτησε τεράστια επιρροή στον ακαδημαϊκό κόσμο, στα κυβερνητικά κέντρα σκέψης και στον κλάδο της τεχνολογίας.
Ο κ. Yudkowsky και τα γραπτά του έπαιξαν καθοριστικό ρόλο στη δημιουργία τόσο του OpenAI όσο και του DeepMind, ενός εργαστηρίου τεχνητής νοημοσύνης που απέκτησε η Google το 2014. Και πολλοί από την κοινότητα των “EAs” εργάστηκαν σε αυτά τα εργαστήρια. Πίστευαν ότι επειδή κατανοούσαν τους κινδύνους της τεχνητής νοημοσύνης, ήταν στην καλύτερη θέση για να την κατασκευάσουν.
Οι δύο οργανισμοί που δημοσίευσαν πρόσφατα ανοιχτές επιστολές προειδοποιώντας για τους κινδύνους της τεχνητής νοημοσύνης – το Κέντρο για την Ασφάλεια της Τεχνητής Νοημοσύνης και το Ινστιτούτο Μέλλον της Ζωής – συνδέονται στενά με αυτό το κίνημα.
Οι πρόσφατες προειδοποιήσεις προέρχονται επίσης από πρωτοπόρους της έρευνας και ηγέτες του κλάδου όπως ο Elon Musk, ο οποίος έχει προειδοποιήσει εδώ και καιρό για τους κινδύνους. Η τελευταία επιστολή υπογράφηκε από τον Sam Altman, τον διευθύνοντα σύμβουλο του OpenAI. και ο Demis Hassabis, ο οποίος βοήθησε στην ίδρυση του DeepMind και τώρα επιβλέπει ένα νέο εργαστήριο AI που συνδυάζει τους κορυφαίους ερευνητές από το DeepMind και την Google.
Άλλες αξιοσέβαστες προσωπικότητες υπέγραψαν τη μία ή και τις δύο προειδοποιητικές επιστολές, συμπεριλαμβανομένων των Δρ Bengio και Geoffrey Hinton, οι οποίοι παραιτήθηκαν πρόσφατα ως στέλεχος και ερευνητής στην Google. Το 2018, έλαβαν το βραβείο Turing, που συχνά αποκαλείται «Βραβείο Νόμπελ υπολογιστών», για την εργασία τους στα νευρωνικά δίκτυα.
[ad_2]
Source link


