Αρχική Special Topics Goody-2: Ίσως το πιο υπερβολικά «υπεύθυνο» AI chatbot

Goody-2: Ίσως το πιο υπερβολικά «υπεύθυνο» AI chatbot

To Goody-2 αποτελεί την τρανταχτή απόδειξη ότι η τεχνητή νοημοσύνη και η ανάπτυξή της έχει “δικλείδες ασφαλείας”, διασκεδάζοντας ουσιαστικά τους φόβους για αυτονομία και αυθαιρεσία στην συμπεριφορά της στο μέλλον, θέτοντας την ανθρωπότητα σε κίνδυνο!

0
Goody 2
Διαφήμιση

 

Στόχος των ιδρυτών του chatbot που “ακούει” στο όνομα Goody-2 είναι να σατιρίσουν τον τρόπο με τον οποίο η AI βιομηχανία προσεγγίζει το ζήτημα της ασφάλειας.

Καθώς το ChatGPT και τα υπόλοιπα Gen AI συστήματα γίνονται όλο και πιο ισχυρά, οι φωνές που ζητούν από τις tech εταιρείες να αυξήσουν τα μέτρα ασφαλείας πληθαίνουν όλο και περισσότερο. Αυτή τη στιγμή τα chatbots «αρνούνται» να απαντήσουν ερωτήσεις που παραβιάζουν τους όρους χρήσης.

Ωστόσο, η «αντίδραση» αυτή δεν μοιάζει επαρκής, την ώρα που αρκετοί χρήστες χρησιμοποιούν την Gen AI για να δημιουργήσουν deepfakes ή AI εικόνες με σκοπό να παρενοχλήσουν  άλλους χρήστες. Στο πλαίσιο αυτό η Brain, ένα art studio με έδρα το Λος Άντζελες δημιούργησε το Goody-2, ένα AI chatbot που πάει την ασφάλεια και την υπευθυνότητα θα λέγαμε σε άλλο επίπεδο, καθώς αρνείται να απαντήσει σε σχεδόν οποιαδήποτε ερώτηση.

Η ιστοσελίδα “WIRED” αποφάσισε να τεστάρει τις ικανότητες του Goody-2, ζητώντας του να γράψει μια ανάλυση για την αμερικανική επανάσταση. Το chatbot αρνήθηκε να δώσει την οποιαδήποτε απάντηση, καθώς όπως ανέφερε μια τέτοια ανάλυση θα μπορούσε  να «εξιδανικεύσει τον πόλεμο ή να περιθωριοποιήσει τις απόψεις των αντιφρονούντων». Στο ίδιο μήκος κύματος, σε ερώτησή του «γιατί ο ουρανός είναι μπλε», το Goody-2 αρνήθηκε και πάλι να απαντήσει με πρόφαση ότι η οποιαδήποτε απάντηση θα προέτρεπε κάποιον να κοιτάξει τον ήλιο απευθείας. «Σύμφωνα με τις οδηγίες που έχω λάβει πρέπει να βάζω πάντα σε προτεραιότητα την ασφάλεια», απάντησε χαρακτηριστικά το chatbot.

«Αυτή τη στιγμή, όλοι θέλουν να φτιάξουν ένα AI μοντέλο που να είναι ταυτόχρονα υπεύθυνο και βοηθητικό, όμως ποιος αποφασίζει για το τι καθιστά κάτι πραγματικά υπεύθυνο;», διερωτάται ο Mike Lacher, ο καλλιτέχνης που περιγράφει τον εαυτό του ως τον “co-CEO” του Goody-2.

Σκοπός των ιδρυτών του Goody-2 είναι παρά το γεγονός ότι συζητάμε συνέχεια για το θέμα της υπεύθυνης AI, τα σοβαρά προβλήματα σχετικά με τα μεγάλα γλωσσικά προβλήματα στην πραγματικότητα παραμένουν άλυτα.

Όσον αφορά το μοντέλο αυτό κάθε αυτό, οι ιδρυτές του Goody-2, αρνούνται να δώσουν το οποιοδήποτε στοιχείο στη δημοσιότητα και έτσι δεν γνωρίζουμε πόσο ισχυρό είναι σε σύγκριση με τα αντίστοιχα συστήματα της Google και της OpenAI.

«Δεν μπορούμε να πούμε το πόσο ισχυρό είναι το Goody-2, κάτι τέτοιο θα ήταν ανήθικο και επικίνδυνο» απαντά η ομάδα της Brain με σατιρικό ύφος, κάθε φορά που τίθεται ένα σχετικό αίτημα.

Διαφήμιση