[ad_1]
Τον Φεβρουάριο, η Meta έκανε μια ασυνήθιστη κίνηση στον ταχέως εξελισσόμενο κόσμο της τεχνητής νοημοσύνης: Αποφάσισε να χαρίσει τα κοσμήματα του στέμματος της AI.
Ο γίγαντας της Silicon Valley, που κατέχει το Facebook, το Instagram και το WhatsApp, είχε δημιουργήσει μια τεχνολογία AI, που ονομάζεται LLaMA, που μπορεί να τροφοδοτήσει διαδικτυακά chatbots. Αλλά αντί να κρατήσει την τεχνολογία για τον εαυτό της, η Meta κυκλοφόρησε τον υποκείμενο κώδικα υπολογιστή του συστήματος στη φύση. Ακαδημαϊκοί, κυβερνητικοί ερευνητές και άλλοι που έδωσαν τη διεύθυνση ηλεκτρονικού ταχυδρομείου τους στη Meta μπορούσαν να κατεβάσουν τον κωδικό μόλις η εταιρεία είχε ελέγξει το άτομο.
Ουσιαστικά, η Meta έδινε την τεχνολογία AI της ως λογισμικό ανοιχτού κώδικα – κώδικα υπολογιστή που μπορεί ελεύθερα να αντιγραφεί, να τροποποιηθεί και να επαναχρησιμοποιηθεί – παρέχοντας στους εξωτερικούς ό,τι χρειάζονταν για να δημιουργήσουν γρήγορα δικά τους chatbots.
«Η πλατφόρμα που θα κερδίσει θα είναι η ανοιχτή», δήλωσε σε συνέντευξή του ο Yann LeCun, επικεφαλής επιστήμονας AI της Meta.
Καθώς ο αγώνας για την ηγεσία της τεχνητής νοημοσύνης θερμαίνεται σε όλη τη Silicon Valley, η Meta ξεχωρίζει από τους αντιπάλους της υιοθετώντας μια διαφορετική προσέγγιση στην τεχνολογία. Καθοδηγούμενη από τον ιδρυτή και διευθύνοντα σύμβουλό της, Mark Zuckerberg, η Meta πιστεύει ότι το πιο έξυπνο πράγμα που μπορεί να κάνει είναι να μοιράζεται τις υποκείμενες μηχανές τεχνητής νοημοσύνης ως τρόπο να εξαπλώσει την επιρροή της και τελικά να προχωρήσει πιο γρήγορα προς το μέλλον.
Οι ενέργειές της έρχονται σε αντίθεση με αυτές της Google και της OpenAI, των δύο εταιρειών που οδηγούν στη νέα κούρσα εξοπλισμών AI. Ανησυχώντας ότι εργαλεία τεχνητής νοημοσύνης όπως τα chatbots θα χρησιμοποιηθούν για τη διάδοση παραπληροφόρησης, ρητορικής μίσους και άλλου τοξικού περιεχομένου, αυτές οι εταιρείες γίνονται όλο και πιο μυστικοπαθείς σχετικά με τις μεθόδους και το λογισμικό που στηρίζουν τα προϊόντα τεχνητής νοημοσύνης τους.
Η Google, το OpenAI και άλλοι έχουν επικρίνει το Meta, λέγοντας ότι μια απεριόριστη προσέγγιση ανοιχτού κώδικα είναι επικίνδυνη. Η ταχεία άνοδος της τεχνητής νοημοσύνης τους τελευταίους μήνες έχει σημάνει συναγερμούς σχετικά με τους κινδύνους της τεχνολογίας, συμπεριλαμβανομένου του πώς θα μπορούσε να ανατρέψει την αγορά εργασίας εάν δεν χρησιμοποιηθεί σωστά. Και μέσα σε λίγες μέρες από την κυκλοφορία του LLaMA, το σύστημα διέρρευσε στο 4chan, τον διαδικτυακό πίνακα μηνυμάτων που είναι γνωστός για τη διάδοση ψευδών και παραπλανητικών πληροφοριών.
«Θέλουμε να σκεφτούμε πιο προσεκτικά να δώσουμε λεπτομέρειες ή κώδικα ανοιχτής προέλευσης» της τεχνολογίας AI, δήλωσε ο Zoubin Ghahramani, αντιπρόεδρος έρευνας της Google που βοηθά στην επίβλεψη της εργασίας της τεχνητής νοημοσύνης. «Πού μπορεί αυτό να οδηγήσει σε κακή χρήση;»
Αλλά η Meta είπε ότι δεν βλέπει κανένα λόγο να κρατήσει τον κωδικό της για τον εαυτό της. Η αυξανόμενη μυστικότητα στη Google και στο OpenAI είναι ένα «τεράστιο λάθος», είπε ο Δρ ΛεΚούν, και μια «πραγματικά κακή αντίληψη για αυτό που συμβαίνει». Υποστηρίζει ότι οι καταναλωτές και οι κυβερνήσεις θα αρνηθούν να αγκαλιάσουν την τεχνητή νοημοσύνη εκτός και αν είναι έξω από τον έλεγχο εταιρειών όπως η Google και η Meta.
«Θέλετε κάθε σύστημα AI να βρίσκεται υπό τον έλεγχο κάποιων ισχυρών αμερικανικών εταιρειών;» ρώτησε.
Το OpenAI αρνήθηκε να σχολιάσει.
Η προσέγγιση ανοιχτού κώδικα της Meta στην τεχνητή νοημοσύνη δεν είναι νέα. Η ιστορία της τεχνολογίας είναι γεμάτη με μάχες μεταξύ ανοιχτού κώδικα και ιδιόκτητων ή κλειστών συστημάτων. Μερικοί συσσωρεύουν τα πιο σημαντικά εργαλεία που χρησιμοποιούνται για την κατασκευή των αυριανών υπολογιστικών πλατφορμών, ενώ άλλοι τα δίνουν μακριά αυτά τα εργαλεία. Πιο πρόσφατα, η Google χρησιμοποίησε ανοιχτού κώδικα το λειτουργικό σύστημα Android για κινητά για να αναλάβει την κυριαρχία της Apple στα smartphone.
Πολλές εταιρείες έχουν μοιραστεί ανοιχτά τις τεχνολογίες AI τους στο παρελθόν, μετά από επιμονή ερευνητών. Αλλά οι τακτικές τους αλλάζουν λόγω του αγώνα γύρω από την τεχνητή νοημοσύνη Αυτή η αλλαγή ξεκίνησε πέρυσι όταν το OpenAI κυκλοφόρησε το ChatGPT. Η άγρια επιτυχία του chatbot εντυπωσίασε τους καταναλωτές και ενθάρρυνε τον ανταγωνισμό στον τομέα της τεχνητής νοημοσύνης, με την Google να κινείται γρήγορα για να ενσωματώσει περισσότερη τεχνητή νοημοσύνη στα προϊόντα της και τη Microsoft να επενδύει 13 δισεκατομμύρια δολάρια στο OpenAI.
Ενώ η Google, η Microsoft και το OpenAI έχουν λάβει από τότε το μεγαλύτερο μέρος της προσοχής στην τεχνητή νοημοσύνη, η Meta έχει επίσης επενδύσει στην τεχνολογία για σχεδόν μια δεκαετία. Η εταιρεία έχει ξοδέψει δισεκατομμύρια δολάρια για την κατασκευή του λογισμικού και του υλικού που απαιτείται για την υλοποίηση chatbots και άλλων «δημιουργικών AI», τα οποία παράγουν κείμενο, εικόνες και άλλα μέσα από μόνα τους.
Τους τελευταίους μήνες, η Meta εργάστηκε μανιωδώς στα παρασκήνια για να συνδυάσει τα χρόνια έρευνας και ανάπτυξης της τεχνητής νοημοσύνης σε νέα προϊόντα. Ο κ. Zuckerberg επικεντρώνεται στο να κάνει την εταιρεία ηγέτη της τεχνητής νοημοσύνης, πραγματοποιώντας εβδομαδιαίες συναντήσεις για το θέμα με την εκτελεστική ομάδα του και τους ηγέτες προϊόντων.
Η μεγαλύτερη κίνηση τεχνητής νοημοσύνης της Meta τους τελευταίους μήνες ήταν η κυκλοφορία του LLaMA, το οποίο είναι γνωστό ως μοντέλο μεγάλου γλωσσικού μοντέλου, ή LLM (LLaMA σημαίνει “Large Language Model Meta AI.”) Τα LLM είναι συστήματα που μαθαίνουν δεξιότητες αναλύοντας τεράστιες ποσότητες κειμένου. συμπεριλαμβανομένων βιβλίων, άρθρων της Wikipedia και αρχείων καταγραφής συνομιλιών. Το ChatGPT και το chatbot Bard της Google είναι επίσης χτισμένα πάνω σε τέτοια συστήματα.
Οι LLM εντοπίζουν μοτίβα στο κείμενο που αναλύουν και μαθαίνουν να δημιουργούν κείμενο από μόνοι τους, συμπεριλαμβανομένων εργασιών όρου, αναρτήσεων ιστολογίου, ποίησης και κώδικα υπολογιστή. Μπορούν ακόμη και να κάνουν πολύπλοκες συνομιλίες.
Τον Φεβρουάριο, η Meta κυκλοφόρησε ανοιχτά το LLaMA, επιτρέποντας σε ακαδημαϊκούς, κυβερνητικούς ερευνητές και άλλους που έδωσαν τη διεύθυνση email τους να κατεβάσουν τον κώδικα και να τον χρησιμοποιήσουν για να δημιουργήσουν ένα δικό τους chatbot.
Αλλά η εταιρεία προχώρησε περισσότερο από πολλά άλλα έργα τεχνητής νοημοσύνης ανοιχτού κώδικα. Επέτρεψε στους ανθρώπους να κατεβάσουν μια έκδοση του LLaMA αφού είχε εκπαιδευτεί σε τεράστιες ποσότητες ψηφιακού κειμένου που είχαν αφαιρεθεί από το Διαδίκτυο. Οι ερευνητές το αποκαλούν «απελευθέρωση των βαρών», αναφερόμενοι στις συγκεκριμένες μαθηματικές τιμές που μαθαίνει το σύστημα καθώς αναλύει δεδομένα.
Αυτό ήταν σημαντικό γιατί η ανάλυση όλων αυτών των δεδομένων απαιτεί συνήθως εκατοντάδες εξειδικευμένα τσιπ υπολογιστών και δεκάδες εκατομμύρια δολάρια, πόρους που οι περισσότερες εταιρείες δεν διαθέτουν. Όσοι έχουν τα βάρη μπορούν να αναπτύξουν το λογισμικό γρήγορα, εύκολα και φθηνά, ξοδεύοντας ένα κλάσμα του κόστους που διαφορετικά θα κόστιζε η δημιουργία ενός τέτοιου ισχυρού λογισμικού.
Ως αποτέλεσμα, πολλοί στον κλάδο της τεχνολογίας πίστεψαν ότι η Meta είχε δημιουργήσει ένα επικίνδυνο προηγούμενο. Και μέσα σε λίγες μέρες, κάποιος κυκλοφόρησε τα βάρη LLaMA στο 4chan.
Στο Πανεπιστήμιο του Στάνφορντ, οι ερευνητές χρησιμοποίησαν τη νέα τεχνολογία της Meta για να κατασκευάσουν το δικό τους σύστημα τεχνητής νοημοσύνης, το οποίο έγινε διαθέσιμο στο διαδίκτυο. Ένας ερευνητής του Στάνφορντ ονόματι Moussa Doumbouya το χρησιμοποίησε σύντομα για να δημιουργήσει προβληματικό κείμενο, σύμφωνα με στιγμιότυπα οθόνης που είδαν οι New York Times. Σε μια περίπτωση, το σύστημα παρείχε οδηγίες για την απόρριψη ενός νεκρού χωρίς να πιαστεί. Δημιούργησε επίσης ρατσιστικό υλικό, συμπεριλαμβανομένων σχολίων που υποστήριζαν τις απόψεις του Αδόλφου Χίτλερ.
Σε μια ιδιωτική συνομιλία μεταξύ των ερευνητών, την οποία είδαν οι Times, ο κ. Doumbouya είπε ότι η διανομή της τεχνολογίας στο κοινό θα ήταν σαν «μια χειροβομβίδα διαθέσιμη σε όλους σε ένα παντοπωλείο». Δεν απάντησε σε αίτημα για σχόλιο.
Το Stanford αφαίρεσε αμέσως το σύστημα AI από το Διαδίκτυο. Το έργο σχεδιάστηκε για να παρέχει στους ερευνητές τεχνολογία που «αιχμαλώτιζε τις συμπεριφορές μοντέλων τεχνητής νοημοσύνης αιχμής», δήλωσε ο Tatsunori Hashimoto, ο καθηγητής του Στάνφορντ που ηγήθηκε του έργου. «Καταργήσαμε την επίδειξη καθώς ανησυχούσαμε ολοένα και περισσότερο για τη δυνατότητα κακής χρήσης πέρα από ένα ερευνητικό περιβάλλον».
Ο Δρ LeCun υποστηρίζει ότι αυτού του είδους η τεχνολογία δεν είναι τόσο επικίνδυνη όσο μπορεί να φαίνεται. Είπε ότι ένας μικρός αριθμός ατόμων θα μπορούσε ήδη να δημιουργήσει και να διαδώσει παραπληροφόρηση και ρητορική μίσους. Πρόσθεσε ότι το τοξικό υλικό θα μπορούσε να περιοριστεί αυστηρά από κοινωνικά δίκτυα όπως το Facebook.
«Δεν μπορείτε να εμποδίσετε τους ανθρώπους να δημιουργούν ανοησίες ή επικίνδυνες πληροφορίες ή οτιδήποτε άλλο», είπε. «Αλλά μπορείτε να σταματήσετε τη διάδοσή του».
Για τη Meta, περισσότεροι άνθρωποι που χρησιμοποιούν λογισμικό ανοιχτού κώδικα μπορούν επίσης να ισοπεδώσουν τους όρους ανταγωνισμού καθώς ανταγωνίζεται τα OpenAI, Microsoft και Google. Εάν κάθε προγραμματιστής λογισμικού στον κόσμο κατασκευάζει προγράμματα χρησιμοποιώντας τα εργαλεία της Meta, θα μπορούσε να βοηθήσει στην εδραίωση της εταιρείας για το επόμενο κύμα καινοτομίας, αποτρέποντας πιθανή ασχετοσύνη.
Ο Δρ. LeCun επεσήμανε επίσης την πρόσφατη ιστορία για να εξηγήσει γιατί η Meta δεσμεύτηκε στην ανοιχτή τεχνολογία AI. Είπε ότι η εξέλιξη του καταναλωτικού Διαδικτύου ήταν το αποτέλεσμα ανοιχτών, κοινοτικών προτύπων που βοήθησαν στη δημιουργία του ταχύτερου, πιο διαδεδομένου δικτύου ανταλλαγής γνώσης που είχε δει ποτέ ο κόσμος.
«Η πρόοδος είναι ταχύτερη όταν είναι ανοιχτή», είπε. “Έχετε ένα πιο ζωντανό οικοσύστημα όπου όλοι μπορούν να συνεισφέρουν.”
[ad_2]
Source link


