Αρχική Special Topics Google: Φρένο στις απαντήσεις από την Τεχνητή Νοημοσύνη μετά τα viral λάθη

Google: Φρένο στις απαντήσεις από την Τεχνητή Νοημοσύνη μετά τα viral λάθη

0
google .jpg
Διαφήμιση

Η Google ανακοίνωσε ότι περιορίζει πλέον τη χρήση απαντήσεων που δημιουργούνται από την Τεχνητή Νοημοσύνη σε ορισμένα αποτελέσματα αναζήτησης, αφού η τεχνολογία έκανε σοβαρά λάθη, όπως να προτρέψει τους χρήστες να βάλουν κόλλα στην πίτσα τους και απαντώντας σε σχετική ερώτηση ότι ο Μπαράκ Ομπάμα ήταν Mουσουλμάνος.

Σύνταξη: ecozen.gr

Barac Obama jpg

Η Google άρχισε να βάζει τις απαντήσεις  που δίνει η Τεχνητή Νοημοσύνη πάνω από τα αποτελέσματα αναζήτησης για χρήστες στις ΗΠΑ πριν από δύο εβδομάδες, αλλά χρήστες και ειδικοί στις μηχανές αναζήτησης την Πέμπτη 30/5 άρχισαν να παρατηρούν ότι πολύ λιγότερα ερωτήματα έπαιρναν απαντήσεις από AI σε σύγκριση με τις προηγούμενες ημέρες, παρατήρησε η Washington Post.

Η επικεφαλής αναζήτησης της Google, Λιζ Ράιντ, επιβεβαίωσε σε μια ανάρτηση ιστολογίου την Πέμπτη 30/5 το απόγευμα ότι η εταιρεία μειώνει ορισμένες από τις απαντήσεις της τεχνητής νοημοσύνης, τις οποίες αποκαλεί «Επισκόπηση AI» (AI Overviews).

Liz Google webp
Η επικεφαλής αναζήτησης της Google, Λιζ Ράιντ,

Η εταιρεία μείωσε τη χρήση αναρτήσεων σε μέσα κοινωνικής δικτύωσης ως πηγαίο υλικό για τις απαντήσεις της τεχνητής νοημοσύνης, σταματά ορισμένες απαντήσεις σε θέματα που σχετίζονται με την υγεία και «πρόσθεσε περιορισμούς ενεργοποίησης για ερωτήματα όπου οι Επισκοπήσεις AI δεν αποδείχθηκαν εξίσου χρήσιμες», δήλωσε η Ράιντ στην ανάρτηση. Η εταιρεία έκανε πάνω από δώδεκα τεχνικές αλλαγές με στόχο τη βελτίωση του συστήματος, είπε στην WP η Ράιντ.

google texniti noimosini

Η αλλαγή είναι το πιο πρόσφατο παράδειγμα όπου η Google λανσάρει ένα προϊόν τεχνητής νοημοσύνης με περίσσιο ενθουσιασμό και στη συνέχεια το περιορίζει αφού πάει στραβά. Τον Φεβρουάριο, η εταιρεία απέκλεισε τους χρήστες από το να δημιουργούν εικόνες ανθρώπων με το εργαλείο εικόνας AI, αφού συντηρητικοί σχολιαστές την κατηγόρησαν για προκατάληψη κατά των Λευκών.

Αστείες και επικίνδυνες απαντήσεις

Αλλά δημοσιογράφοι, ειδικοί στις μηχανές αναζήτησης και χρήστες των μέσων κοινωνικής δικτύωσης άρχισαν γρήγορα να εντοπίζουν προβλήματα με τις απαντήσεις. Μερικές από τις απαντήσεις ήταν αστείες ενώ άλλες προκαλούσαν ανησυχία. Εμφανίστηκαν επίσης σε ευαίσθητα ερωτήματα, συμπεριλαμβανομένων αυτών που σχετίζονται με την υγεία.

Μια απάντηση, την οποία η Google έκτοτε έχει διορθώσει, έλεγε στους χρήστες να πίνουν πολλά ούρα για να βοηθήσουν να…περάσει μια πέτρα στα νεφρά. Μια άλλη ανέφερε ότι ο Τζον Φ. Κένεντι αποφοίτησε από το Πανεπιστήμιο του Ουισκόνσιν στο Μάντισον σε έξι διαφορετικές χρονιές, τρεις από τις οποίες ήταν μετά τον θάνατό του.

Η Google προσπάθησε να δοκιμάσει το εργαλείο όσο περισσότερο μπορούσε πριν από την ευρύτερη κυκλοφορία, αλλά η Ράιντ είπε ότι η κυκλοφορία σε πλήρη κλίμακα αποκάλυψε πολλές καταστάσεις για τις οποίες η εταιρεία δεν είχε προετοιμαστεί.

«Δεν υπάρχει τίποτα καλύτερο από το να χρησιμοποιούν εκατομμύρια άνθρωποι τη δυνατότητα», είπε η Ράιντ.

Διαφήμιση