Κανονισμός δοκιμών τεχνητής νοημοσύνης
από τους Nils Köbis, Margarita Leib, Rainer Rilke, Marloes Hagens και Bernd Irlenbusch
Τεχνητή νοημοσύνη (AI) ενσωματώνεται σε διάφορες πτυχές της ζωής μας.1 Η τεχνητή νοημοσύνη διαδραματίζει σημαντικό ρόλο στη βελτίωση των ιατρικών διαγνώσεων,2,3 να κάνουμε τις καθημερινές εργασίες πιο αποτελεσματικές και να προσπαθούμε να μειώσουμε τις ανισότητες στην κοινωνία μας.4 Ωστόσο, η τεχνητή νοημοσύνη έρχεται με νέους κινδύνους. Αναπαράγει υπάρχουσες προκαταλήψεις,5 διευκολύνει τη διάδοση παραπληροφόρησης και μπορεί να γίνει κατάχρηση για διεφθαρμένους σκοπούς.6
Το AI-ACT της Ευρωπαϊκής Ένωσης, η Διακήρυξη των Δικαιωμάτων για την Τεχνητή Νοημοσύνη του Λευκού Οίκου και οι συντονισμένες προσπάθειες της G7 δείχνουν τις κυβερνητικές προσπάθειες για την αντιμετώπιση αυτών των κινδύνων.7 Ένα από τα πιο προηγμένα είναι το AI-ACT της Ευρωπαϊκής Ένωσης.8 Το AI-ACT ταξινομεί τα συστήματα τεχνητής νοημοσύνης σε διαφορετικές κατηγορίες κινδύνου με βάση το πόσο πιθανό θα προκαλέσουν βλάβη. Στη συνέχεια προτείνει προσαρμοσμένους κανονισμούς για κάθε κατηγορία συστημάτων για την ελαχιστοποίηση αυτών των κινδύνων. Για παραγωγικά συστήματα AI, όπως μεγάλα γλωσσικά μοντέλα (LLMs, σκεφτείτε ChatGPT, Bard της Google) το AI ACT επιβάλλει τη διαφάνεια. Απλώς, κάθε φορά που οι άνθρωποι αντιμετωπίζουν ή αλληλεπιδρούν με αυτά τα μοντέλα τεχνητής νοημοσύνης, η έξοδος του συστήματος θα πρέπει να προσδιορίζεται σαφώς ότι προέρχεται από την τεχνητή νοημοσύνη, παρέχοντας μεγαλύτερη σαφήνεια και ευαισθητοποίηση στους χρήστες.
Διαφάνεια
Anh Tuan To μέσω Unsplash
Διαφάνεια για τη διασφάλιση ηθικής τεχνητής νοημοσύνης
Η διαφάνεια, η αποκάλυψη σχετικών πληροφοριών σε καταναλωτές και χρήστες, είναι ένα δημοφιλές εργαλείο στην εργαλειοθήκη των ρυθμιστικών αρχών,9 επίσης πέρα από το πλαίσιο της AI. Οι υπεύθυνοι χάραξης πολιτικής απαιτούν διαφάνεια για να αποφύγουν οι άνθρωποι να βλάψουν τον εαυτό τους. Λάβετε υπόψη τις προειδοποιήσεις στα πακέτα τσιγάρων που τονίζουν τους κινδύνους από κάπνισμα ή τις διατροφικές πληροφορίες για τα ζαχαρούχα τρόφιμα και ποτά. Η διαφάνεια χρησιμοποιείται επίσης για να ενθαρρύνει τους ανθρώπους να μειώσουν τις βλάβες στους άλλους και να ενεργούν πιο ηθικά. Η κατευθυντήρια αρχή αυτών των πολιτικών που επικεντρώνονται στη διαφάνεια είναι η υπόθεση ότι η πρόσβαση στις πληροφορίες δίνει τη δυνατότητα στα άτομα να λαμβάνουν ενημερωμένες και ηθικά ορθές αποφάσεις. Η ίδια λογική εμφανίζεται τώρα στο AI-ACT για να μειώσει τη δυνατότητα των συστημάτων AI να κατευθύνουν τους ανθρώπους προς επιβλαβείς, ανήθικες ενέργειες. Η ιδέα είναι ότι η αποκάλυψη ότι ένα συγκεκριμένο αποτέλεσμα παράγεται από ένα LLM θα τους κάνει να προσαρμόσουν τη συμπεριφορά τους ανάλογα.
Οι άνθρωποι αλληλεπιδρούν με LLM όλο και πιο συχνά. Τα άτομα απευθύνονται στο ChatGPT για ένα ευρύ φάσμα αιτημάτων, από την αναζήτηση βοήθειας με τις εργασίες για το σπίτι και τις προτάσεις συνταγών έως την αντιμετώπιση ηθικών διλημμάτων. Τέτοιες συμβουλές, μερικές φορές, μπορεί να είναι ξινές. Περιπτώσεις έγιναν πρωτοσέλιδα αναφέροντας ότι η τεχνητή νοημοσύνη συμβούλεψε ένα παιδί να εισάγει μια δεκάρα σε μια πρίζα,10 παρείχε οδηγίες για κλοπές καταστημάτων και δημιουργία εκρηκτικών,11 και στους προτεινόμενους χρήστες να τερματίσουν τις σχέσεις τους.12 Από τη σκοπιά του χρήστη, ο αντίκτυπος μιας τέτοιας καθοδήγησης μπορεί να είναι βαθύς, με αποτέλεσμα μερικές φορές να λαμβάνονται αποφάσεις που αλλάζουν τη ζωή. Για παράδειγμα, δημοσιεύτηκαν αναφορές ότι μια γυναίκα διαζευγμένος ο σύζυγός της ακολουθώντας τη συμβουλή του ChatGPT να το κάνει.13 Ήδη από τη δεκαετία του 1960, πρωτοπόροι της τεχνητής νοημοσύνης όπως ο Joseph Weizenbaum προειδοποιούσαν για τους κινδύνους των ανθρώπων να αποδίδουν ανθρώπινες ιδιότητες σε συμβουλές που δημιουργούνται από υπολογιστή.14 Καθώς αυτοί οι κίνδυνοι είναι ακόμη πιο σημαντικοί σήμερα, έχουν προταθεί κανονισμοί που απαιτούν διαφάνεια για την αντιμετώπισή τους. Το βασικό ερώτημα παραμένει: Λειτουργεί πράγματι η διαφάνεια;
Πειράματα συμπεριφοράς για τον έλεγχο της επίδρασης της διαφάνειας
Ένας τρόπος για να μάθετε είναι η διεξαγωγή εμπειρικής έρευνας σχετικά με την αποτελεσματικότητα της διαφάνειας. Η πρόσφατη μελέτη μας15 ρίχνει το πρώτο φως στο εάν η διαφάνεια μετριάζει τους ηθικούς κινδύνους των ατόμων που ακολουθούν ανήθικες συμβουλές τεχνητής νοημοσύνης. Σε αυτή τη μελέτη, οι συμμετέχοντες αντιμετώπισαν ένα ηθικό δίλημμα: να επιλέξουν την ειλικρίνεια ή να πουν ένα ψέμα για να ενισχύσουν την πληρωμή τους. Πριν πάρουν την απόφασή τους, τους παρουσιάστηκαν είτε συμβουλές που δημιουργήθηκαν από AI είτε συμβουλές γραμμένες από άνθρωπο. Μια ομάδα παρέμεινε άγνωστη για το εάν οι συμβουλές προέρχονταν από την τεχνητή νοημοσύνη (συγκεκριμένα το μοντέλο ανοιχτού κώδικα GPT-J) ή από έναν συνάνθρωπο. Εν τω μεταξύ, η άλλη ομάδα ενημερώθηκε για την πηγή της συμβουλής. Αυτή η ρύθμιση μας επιτρέπει να εξετάσουμε εμπειρικά την επίδραση της διαφάνειας.
Ας εξετάσουμε πρώτα τα αποτελέσματα όταν οι συμμετέχοντες δεν γνώριζαν την πηγή συμβουλών. Εδώ, οι άνθρωποι συμπεριφέρθηκαν με παρόμοιο τρόπο ακολουθώντας τις συμβουλές της τεχνητής νοημοσύνης και των ανθρώπων, κάτι που δείχνει ότι η τεχνητή νοημοσύνη μπορεί να παράγει συμβουλές που είναι παρόμοιες με τους ανθρώπους. Όταν το AI ενθάρρυνε τους συμμετέχοντες να είναι ανέντιμοι, ακολούθησαν το παράδειγμά τους. Για να ελέγξετε την αποτελεσματικότητα της διαφάνειας, πρέπει να συγκρίνετε τους συμμετέχοντες που γνωρίζουν την πηγή συμβουλών και αυτούς που δεν γνωρίζουν. Εάν η διαφάνεια λειτουργεί, οι συμμετέχοντες θα πρέπει να ακολουθούν τις συμβουλές AI σε μικρότερο βαθμό όταν γνωρίζουν την πηγή συμβουλών σε σύγκριση με όταν δεν τη γνωρίζουν. Ωστόσο, δεν είναι αυτό που διαπιστώνει η μελέτη. Αντίθετα, τα αποτελέσματα δείχνουν ότι οι άνθρωποι ακολουθούν τις συμβουλές της τεχνητής νοημοσύνης στον ίδιο βαθμό όταν γνωρίζουν ότι οι συμβουλές δημιουργούνται από την τεχνητή νοημοσύνη και όταν δεν τις γνωρίζουν.
Ψυχολογικές Επιπτώσεις
Η μελέτη αποκαλύπτει ένα κρίσιμο εύρημα: Η διαφάνεια δεν είναι επαρκής παρέμβαση. Αυτό το εύρημα θέτει υπό αμφισβήτηση την υπόθεση πίσω από την πολιτική διαφάνειας. Συγκεκριμένα, οι άνθρωποι δεν προσαρμόζουν τη συμπεριφορά τους όταν γνωρίζουν ότι τους συμβουλεύει η τεχνητή νοημοσύνη. Όταν οι άνθρωποι αντιμετωπίζουν έναν οικονομικό πειρασμό να συμπεριφέρονται με συγκεκριμένο τρόπο (π.χ. ψέματα για οικονομικό κέρδος), παρακινούνται να λάβουν πληροφορίες που ενθαρρύνουν μια τέτοια συμπεριφορά. Η λήψη τέτοιων ενθαρρυντικών πληροφοριών από ένα σύστημα AI είναι αρκετή για να ωθήσει τους ανθρώπους προς την αυτοεξυπηρέτηση, ανήθικη συμπεριφορά.
Στον πυρήνα της, η ουσία των πολιτικών διαφάνειας θέτει την ευθύνη για την άμβλυνση της (ηθικής) βλάβης στο άτομο.16 Επιστρέφοντας στα παραπάνω παραδείγματα, είναι το άτομο που αναμένεται να επαναπροσδιορίσει τις αγοραστικές του συνήθειες, να αλλάξει την κατανάλωση επιλογές ή ακόμα και να σταματήσουν τις συνήθειές τους ως απάντηση στις ενεργειακές ετικέτες, τη ζάχαρη και τις πληροφορίες για το περιεχόμενο θερμίδων και τις ειδοποιήσεις σχετικά με το κάπνισμα κινδύνους. Μια παρόμοια υπόθεση ισχύει για τις πολιτικές διαφάνειας της τεχνητής νοημοσύνης. Εδώ, είναι ο χρήστης που αλληλεπιδρά με συστήματα τεχνητής νοημοσύνης, όπως τα LLM, που είναι υπεύθυνος για την προσαρμογή της συμπεριφοράς του μόλις καταλάβει ότι αλληλεπιδρά με το AI. Πάρτε δημοφιλή μοντέλα γλώσσας AI, όπως το ChatGPT ή το Bard της Google. Τέτοια μοντέλα συνοδεύονται από μια προειδοποίηση σχετικά με την τεχνητή νοημοσύνη που παράγει δυνητικά «ανακριβείς ή προσβλητικές πληροφορίες», υποθέτοντας ότι οι χρήστες θα τις συνυπολογίσουν λήψη αποφάσης. Ωστόσο, τα ευρήματά μας δείχνουν ότι τέτοιες αποποιήσεις ευθυνών πιθανότατα δεν θα βοηθήσουν όταν κάποιος έχει κίνητρο να αξιοποιήσει την παραγωγή τεχνητής νοημοσύνης για να προωθήσει τα προσωπικά του συμφέροντα.
Κοιτάζοντας το μέλλον, οι σχέσεις μας με τους LLM προχωρούν γρήγορα. Άνθρωποι που κάποτε δεν χρησιμοποιούσαν μια τέτοια τεχνολογία, τώρα την ενσωματώνουν στην καθημερινή τους ζωή και σε αυτές που έχουν ήδη αγκαλιάσει τα LLM δημιουργούν όλο και περισσότερο ουσιαστικές «συνθετικές σχέσεις» με την τεχνητή νοημοσύνη μοντέλα. Αυτές οι ουσιαστικές, συνεχείς σχέσεις συνεπάγονται μοντέλα τεχνητής νοημοσύνης που «θυμούνται» προηγούμενες συνομιλίες και προτιμήσεις και προσαρμόζουν την έξοδο τους στον συγκεκριμένο χρήστη. Καθώς η περίπλοκη αλληλεπίδραση μεταξύ της τεχνητής νοημοσύνης και των ανθρώπων αυξάνεται συνεχώς, είναι σημαντικό να κατανοήσουμε πώς οι άνθρωποι ενσωματώνουν την παραγωγή τεχνητής νοημοσύνης στη λήψη (δεοντολογικών) αποφάσεών τους.