Αρχική Ειδήσεις Τεχνητή νοημοσύνη: Έρχονται σενάρια Δευτέρας Παρουσίας!

Τεχνητή νοημοσύνη: Έρχονται σενάρια Δευτέρας Παρουσίας!

Μία ακόμη φωνή έρχεται να προστεθεί σε εκείνες που μιλούν για την ανεξέλεγκτη πορεία που  μπορεί να διαγράψει η τεχνητή νοημοσύνη στο μέλλον, με ανυπολόγιστες επιπτώσεις για την ανθρωπότητα.

0
τεχνητή νοημοσύνη
Διαφήμιση

Το νέο “καμπανάκι” για την τεχνητή νοημοσύνη έρχεται από τον Μο Γκόνταντ, που θεωρείται ειδικός στην τεχνητή νοημοσύνη (AI) και υπήρξε επικεφαλής επιχειρήσεων στο Google X,ο οποίος εκφράζει την ανησυχία του για την ταχεία άνοδο της ΑΙ και προτρέπει τους ανθρώπους να μην κάνουν παιδιά, καθώς είναι πολύ πιθανό το σενάριο της «AI Doomsday»!

Σύνταξη:ecozen.gr

Πρόκειται για το σενάριο της «AI Doomsday», ήτοι της Δευτέρας Παρουσίας και όπως προειδοποιεί ο Μο Γκόνταντ «Ειλικρινά οι κίνδυνοι είναι τόσο ισχυροί, που εξετάζοντας όλες τις άλλες απειλές για την ανθρωπότητα, νομίζω πως οι άνθρωποι θα πρέπει να αποφύγουν να κάνουν παιδιά εάν ακόμη δεν έχουν γίνει γονείς». Τις δηλώσεις αυτές έκανε ο Μο Γκόνταντ μιλώντας στον Steven Bartlett και στο podcast «το ημερολόγιο ενός CEO».

Σημειώνεται ότι η φωνή αυτή έρχεται να προστεθεί σε άλλες που προέρχονται από τη βιομηχανία της τεχνολογίας και το τελευταίο διάστημα έχουν εκφράσει ανοιχτά και δημόσια τους φόβους τους για την ανεξέλεγκτη τροχιά στην οποία-εφόσον υπεισέλθει- η τεχνητή νοημοσύνη- δεν θα έχει γυρισμό αλλά και σωτηρία για το μέλλον της ανθρωπότητας.

Ισχυρά πρόσωπα της τεχνολογίας, όπως ο Έλον Μασκ και ο συνιδρυτής της Aplle, Steve Wozniak, αλλά και πολλοί άλλοι επιχειρηματίες και ειδικοί του χώρου υπέγραψαν πρόσφατα μια ανοιχτή επιστολή ζητώντας να «παγώσουν» οι καινοτομίες για λίγο καιρό, ώστε η βιομηχανία αλλά και οι ίδιοι οι χρήστες να αποκτήσουν χρόνο για να επεξεργαστούν τις τελευταίες εξελίξεις.

 «Ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελεί παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος», ανέφερε σε ανακοίνωσή του το Κέντρο για την Ασφάλεια που αφορά την Τεχνητή Νοημοσύνη.

Τις εν λόγω ανησυχίες ενστερνίστηκαν με ανοιχτή επιστολή και εκατοντάδες ηγέτες του κλάδου. Ο ίδιος ο Σαμ Άλτμαν, ο διευθύνων σύμβουλος της Open AI, της εταιρείας που δημιούργησε το ChatGPT φέρνοντας επανάσταση στο χώρο της τεχνητής νοημοσύνης, έχει προειδοποιήσει για «υπαρξιακό κίνδυνο», τονίζοντας πως «ένας από τους μεγαλύτερους φόβους μου, είναι μήπως προκαλέσουμε σημαντικές ζημιές στην κοινωνία. Αν αυτή η τεχνολογία βαδίσει στον λάθος δρόμο, μπορεί να πάει αρκετά μακριά». 

«Δεν έχει υπάρξει ποτέ στην ιστορία της ανθρωπότητας τόσο τέλεια καταιγίδα», τονίζει ο Μο Γκόνταντ.

«Οικονομία, γεωπολιτική, υπερθέρμανση του πλανήτη, κλιματική αλλαγή και τώρα η ιδέα της τεχνητής νοημοσύνης. Αυτή είναι μια τέλεια καταιγίδα, η απόλυτη αβεβαιότητα… Πότε ξανά δεν ήταν πιο έντονη. Αν αγαπούσατε πραγματικά τα παιδιά σας, θα θέλατε πραγματικά να τα εκθέσετε σε όλα αυτά;». Και αυτή η «τέλεια καταιγίδα» ενισχύεται από τον ανταγωνισμό των εταιρειών τεχνολογίας, που έχουν επιδοθεί σε μια κούρσα για την ηγεμονία στη νέα τεχνολογική εποχή.

«Έχω περάσει την καριέρα μου γοητευμένος από τον ρόλο που παίζει η τεχνολογία και τώρα η μεγαλύτερη πρόκληση που έχει αντιμετωπίσει ποτέ η ανθρωπότητα είναι μπροστά μας», είπε και πρόσθεσε:

«Η τεχνητή νοημοσύνη είναι το αποκορύφωμα της τεχνολογικής προόδου και πιστεύω ότι θα είναι άνευ προηγουμένου στον καθορισμό του τρόπου με τον οποίο διαμορφώνεται ο κόσμος». «Η πολυπλοκότητα της ψηφιακής νοημοσύνης είναι τέτοια που έχει γίνει αυτόνομη. Είναι ζωτικής σημασίας να μείνουμε συντονισμένοι στο πώς θα πρέπει να γίνεται αυτό, διαφορετικά κινδυνεύουμε να μείνουμε πίσω», κατέληξε.

τεχνητή νοημοσύνη

Ο φόβος είναι η κακή χρήση της τεχνητής νοημοσύνης από τους ίδιους τους ανθρώπους

Η Τζέσικα Νιούμαν, διευθύντρια της Πρωτοβουλίας Ασφάλειας Τεχνητής Νοημοσύνης του Πανεπιστημίου της Καλιφόρνια στο Μπέρκλεϋ, μιλώντας στον Guardian, υπογράμμισε πως «η ανησυχία δεν προκύπτει από μια τεχνητή νοημοσύνη που θα αποκτήσει κάποιου είδους κακόβουλη επιθυμία».

Ο κίνδυνος προέρχεται από κάτι πολύ πιο απλό: Από τον τρόπο που οι άνθρωποι θα αξιοποιήσουν την τεχνητή νοημοσύνη. Είτε γιατί επιθυμούν να προκαλέσουν κάτι κακό, είτε γιατί θα ενσωματώσουν σε υπέρμετρο βαθμό συστήματα τεχνητής νοημοσύνης – ακόμη και ανακριβή με εγγενείς αδυναμίες – σε όλο και περισσότερους τομείς της κοινωνίας.

Εν ολίγοις, η ακραία χρήση της τεχνητής νοημοσύνης έχει την ικανότητα να αποσταθεροποιεί κοινωνίες χωρίς να πάρει τα όπλα.

Για παράδειγμα με τη μορφή της παραπληροφόρησης, διαβρώνεται η κοινή κατανόηση της αλήθειας και της εγκυρότητας των πληροφοριών. Μάλιστα η παραπληροφόρηση – είτε ως ανακρίβεια, είτε ως κακόβουλη διάδοση με σκοπό την παραπλάνηση – θα μπορούσε να διαιωνίζεται, καθώς τα τρέχοντα μοντέλα τεχνητής νοημοσύνης θα δημιουργούν διαρκώς ελαττωματικά σύνολα δεδομένων από τα οποία θα γίνεται η εκμάθηση των μελλοντικών μοντέλων.

Μεγάλα γλωσσικά μοντέλα όπως το ChatGPT είναι επιρρεπή σε ένα φαινόμενο που ονομάζεται «παραισθήσεις», στο οποίο επαναλαμβάνονται κατασκευασμένες ή ψευδείς πληροφορίες.

Υπάρχουν άνθρωποι που λένε ότι οι κίνδυνοι για την τεχνητή νοημοσύνη υπερεκτιμώνται, αλλά στον κόσμο των πληροφοριών έχει εκπληκτικό αντίκτυπο, επισημαίνουν ειδικοί, τονίζοντας πως το ερώτημα που τίθεται είναι εάν μπορούμε να καταλάβουμε πραγματικά τι είναι αλήθεια και τι όχι και πως επαληθεύουμε αυτό που βλέπουμε στο διαδίκτυο.

 

 

Διαφήμιση