[ad_1]
Οι ευρωπαϊκές ρυθμιστικές αρχές βρίσκονται σε σταυροδρόμι για το πώς θα ρυθμιστεί η τεχνητή νοημοσύνη — και τελικά θα χρησιμοποιηθεί εμπορικά και μη — στην περιοχή, και σήμερα η μεγαλύτερη ομάδα καταναλωτών της ΕΕ, η BEUC, στάθηκε με τη δική της θέση: σταματήστε να σέρνετε τα πόδια σας και «Ξεκινήστε επείγουσες έρευνες για τους κινδύνους της γενετικής τεχνητής νοημοσύνης» τώρα, ανέφερε.
«Η γενετική τεχνητή νοημοσύνη όπως το ChatGPT έχει ανοίξει κάθε είδους δυνατότητες για τους καταναλωτές, αλλά υπάρχουν σοβαρές ανησυχίες για το πώς αυτά τα συστήματα μπορεί να εξαπατήσουν, να χειραγωγήσουν και να βλάψουν τους ανθρώπους. Μπορούν επίσης να χρησιμοποιηθούν για τη διάδοση παραπληροφόρησης, τη διαιώνιση υπαρχουσών προκαταλήψεων που ενισχύουν τις διακρίσεις ή να χρησιμοποιηθούν για απάτη», δήλωσε η Ursula Pachl, Αναπληρώτρια Γενική Διευθύντρια του BEUC, σε δήλωση. «Καλούμε τις αρχές ασφάλειας, δεδομένων και προστασίας των καταναλωτών να ξεκινήσουν έρευνες τώρα και να μην περιμένουν άπραγοι για κάθε είδους βλάβη των καταναλωτών προτού αναλάβουν δράση. Αυτοί οι νόμοι ισχύουν για όλα τα προϊόντα και τις υπηρεσίες, είτε τροφοδοτούνται με τεχνητή νοημοσύνη είτε όχι και οι αρχές πρέπει να τους επιβάλλουν».
Το BEUC, το οποίο εκπροσωπεί οργανώσεις καταναλωτών σε 13 χώρες στην ΕΕ, απηύθυνε την έκκληση να συμπέσει με μια έκθεση που δημοσιεύτηκε σήμερα από ένα από τα μέλη του, το Forbrukerrådet στη Νορβηγία.
Αυτή η νορβηγική έκθεση είναι ξεκάθαρη στη θέση της: η τεχνητή νοημοσύνη προκαλεί βλάβες στους καταναλωτές (ο τίτλος της έκθεσης τα λέει όλα: «Ghost in the Machine: αντιμετώπιση των βλαβών των καταναλωτών της γενετικής τεχνητής νοημοσύνης») και θέτει πολλά προβληματικά ζητήματα.
Ενώ ορισμένοι τεχνολόγοι κρούουν τον κώδωνα του κινδύνου γύρω από την τεχνητή νοημοσύνη ως όργανο εξαφάνισης του ανθρώπου, η συζήτηση στην Ευρώπη αφορούσε περισσότερο τις επιπτώσεις της τεχνητής νοημοσύνης σε τομείς όπως η δίκαιη πρόσβαση στις υπηρεσίες, η παραπληροφόρηση και ο ανταγωνισμός.
Υπογραμμίζει, για παράδειγμα, πώς «ορισμένοι προγραμματιστές τεχνητής νοημοσύνης, συμπεριλαμβανομένων εταιρειών μεγάλης τεχνολογίας» έχουν αποκλείσει τα συστήματα από εξωτερικό έλεγχο, καθιστώντας δύσκολο να δούμε πώς συλλέγονται δεδομένα ή πώς λειτουργούν οι αλγόριθμοι. το γεγονός ότι ορισμένα συστήματα παράγουν λανθασμένες πληροφορίες τόσο ευγενικά όσο και σωστά αποτελέσματα, με τους χρήστες συχνά να μην είναι τόσο σοφότεροι. Τεχνητή νοημοσύνη που έχει δημιουργηθεί για να παραπλανά ή να χειραγωγεί τους χρήστες. το ζήτημα μεροληψίας που βασίζεται στις πληροφορίες που τροφοδοτούνται σε ένα συγκεκριμένο μοντέλο τεχνητής νοημοσύνης· και την ασφάλεια, συγκεκριμένα πώς η τεχνητή νοημοσύνη θα μπορούσε να οπλιστεί για να εξαπατήσει ανθρώπους ή να παραβιάσει συστήματα.
Αν και η κυκλοφορία του ChatGPT του OpenAI έχει σίγουρα τοποθετήσει την τεχνητή νοημοσύνη και τις δυνατότητες της απήχησής της στη συνείδηση του κοινού, η εστίαση της ΕΕ στον αντίκτυπο της τεχνητής νοημοσύνης δεν είναι νέα. Δήλωσε ότι συζητούσε θέματα «κινδύνου» το 2020, αν και αυτές οι αρχικές προσπάθειες είχαν τεθεί ως βάση για την αύξηση της «εμπιστοσύνης» στην τεχνολογία.
Μέχρι το 2021, μιλούσε πιο συγκεκριμένα για εφαρμογές τεχνητής νοημοσύνης «υψηλού κινδύνου» και περίπου 300 οργανισμοί ενώθηκαν για να υποστηρίξουν την πλήρη απαγόρευση ορισμένων μορφών τεχνητής νοημοσύνης.
Τα συναισθήματα έχουν γίνει πιο έντονα με την πάροδο του χρόνου, καθώς η ΕΕ εργάζεται μέσω της νομοθεσίας της σε όλη την περιοχή. Την περασμένη εβδομάδα, η επικεφαλής ανταγωνισμού της ΕΕ, Margarethe Vestager, μίλησε συγκεκριμένα για το πώς η τεχνητή νοημοσύνη ενέχει κινδύνους μεροληψίας όταν εφαρμόζεται σε κρίσιμους τομείς όπως οι χρηματοπιστωτικές υπηρεσίες, όπως τα στεγαστικά δάνεια και άλλες αιτήσεις δανείου.
Τα σχόλιά της ήρθαν μόλις η ΕΕ ενέκρινε τον επίσημο νόμο της για την τεχνητή νοημοσύνη, ο οποίος χωρίζει προσωρινά τις εφαρμογές τεχνητής νοημοσύνης σε κατηγορίες όπως απαράδεκτοι, υψηλού και περιορισμένου κινδύνου, καλύπτοντας ένα ευρύ φάσμα παραμέτρων για να καθοριστεί σε ποια κατηγορία εμπίπτουν.
Ο νόμος για την τεχνητή νοημοσύνη, όταν εφαρμοστεί, θα είναι η πρώτη προσπάθεια στον κόσμο να προσπαθήσει να κωδικοποιήσει κάποιου είδους κατανόηση και νομική επιβολή σχετικά με τον τρόπο με τον οποίο η τεχνητή νοημοσύνη χρησιμοποιείται εμπορικά και μη.
Το επόμενο βήμα στη διαδικασία είναι να συνεργαστεί η ΕΕ με μεμονωμένες χώρες της ΕΕ για να καταλήξει σε ποια τελική μορφή θα πάρει ο νόμος — συγκεκριμένα για να προσδιορίσει τι (και ποιοι) θα χωρούσε στις κατηγορίες του και τι όχι. Το ερώτημα θα είναι πόσο εύκολα συμφωνούν διαφορετικές χώρες. Η ΕΕ θέλει να ολοκληρώσει αυτή τη διαδικασία μέχρι το τέλος αυτού του έτους, ανέφερε.
«Είναι σημαντικό η ΕΕ να καταστήσει αυτόν τον νόμο όσο το δυνατόν πιο στεγανό για την προστασία των καταναλωτών», είπε η Pachl στη δήλωσή της. «Όλα τα συστήματα τεχνητής νοημοσύνης, συμπεριλαμβανομένης της γενετικής τεχνητής νοημοσύνης, χρειάζονται δημόσιο έλεγχο και οι δημόσιες αρχές πρέπει να επαναφέρουν τον έλεγχο τους. Οι νομοθέτες πρέπει να απαιτήσουν ότι η παραγωγή από οποιοδήποτε σύστημα τεχνητής νοημοσύνης που δημιουργείται είναι ασφαλές, δίκαιο και διαφανές για τους καταναλωτές».
Το BEUC είναι γνωστό για την παρουσία του σε κρίσιμες στιγμές και για την πραγματοποίηση κλήσεων με επιρροή που αντικατοπτρίζουν την κατεύθυνση που τελικά παίρνουν οι ρυθμιστικές αρχές. Ήταν μια πρώιμη φωνή, για παράδειγμα, κατά της Google στις μακροπρόθεσμες αντιμονοπωλιακές έρευνες εναντίον του γίγαντα της αναζήτησης και των κινητών τηλεφώνων, που ακούγονταν χρόνια πριν αναληφθούν μέτρα εναντίον της εταιρείας. Αυτό το παράδειγμα, ωστόσο, υπογραμμίζει κάτι άλλο: η συζήτηση για την τεχνητή νοημοσύνη και τις επιπτώσεις της, και ο ρόλος που μπορεί να διαδραματίσει η ρύθμιση σε αυτό, πιθανότατα θα είναι μακρά.
[ad_2]
Source link


