Τεχνητή Νοημοσύνη: Επιστήμονες ζητούν πλαίσιο ελέγχου από τους παγκόσμιους ηγέτες

Αυστηρό πλαίσιο ελέγχου και αφύπνιση για τους κινδύνους που ενέχει η τεχνητή νοημοσύνη, ζητούν κορυφαίοι εμπειρογνώμονες από τους παγκόσμιους ηγέτες.

Με αφορμή την δεύτερη Σύνοδο Κορυφής για την Ασφάλεια της Τεχνητής Νοημοσύνης, που ξεκίνησε στην Σεούλ, κορυφαίοι επιστήμονες σε αυτόν τον τομέα κρούουν το καμπανάκι του κινδύνου.

Οι επιστήμονες, ζητούν από τους παγκόσμιους ηγέτες να αναλάβουν ισχυρότερη δράση για τους κινδύνους που υπάρχουν σε αυτήν, διαπιστώνοντας παράλληλα ότι η πρόοδος είναι ανεπαρκής μετά την πρώτη Σύνοδο που διεξήχθη πριν από έξι μήνες.

Σε άρθρο που δημοσίευσαν στο περιοδικό «Science», 25 επιστήμονες από τις ΗΠΑ, την ΕΕ, το Ηνωμένο Βασίλειο και την Κίνα αναφέρουν ότι στην πραγματικότητα δεν έχουν γίνει αρκετά για την προστασία μας από τους κινδύνους της τεχνολογίας.

Όπως επισημαίνουν, είναι επιτακτική ανάγκη οι παγκόσμιοι ηγέτες να λάβουν σοβαρά υπόψη τους την πιθανότητα ότι μέσα στην τρέχουσα ή την επόμενη δεκαετία θα αναπτυχθούν εξαιρετικά ισχυρά συστήματα γενικής τεχνητής νοημοσύνης, που θα υπερτερούν των ανθρώπινων ικανοτήτων σε πολλούς κρίσιμους τομείς.

Οι επιστήμονες ζητούν από τις κυβερνήσεις να δημιουργηθούν όργανα εμπειρογνωμόνων που θα δρουν με ταχύτητα για την εποπτεία της τεχνητής νοημοσύνης, στα οποία να παρασχεθεί πολύ μεγαλύτερη χρηματοδότηση από αυτήν που προβλέπεται.

Επίσης, να δίνουν εντολή για πολύ πιο αυστηρές αξιολογήσεις κινδύνου, αλλά και να απαιτούν από τις εταιρείες τεχνητής νοημοσύνης να θέτουν ως προτεραιότητα την ασφάλεια και να αποδεικνύουν ότι τα συστήματά τους δεν μπορούν να προκαλέσουν βλάβη.

Τέλος, να αναλάβουν ηγετικό ρόλο στη δημιουργία ρυθμιστικού πλαισίου.

Το άρθρο συνυπογράφουν, μεταξύ άλλων, ο ιστορικός και φιλόσοφος Γιουβάλ Νόα Χαράρι, ο επιστήμονας Πληροφορικής και πρωτοπόρος της τεχνητής νοημοσύνης με τις περισσότερες ακαδημαϊκές αναφορές στον κόσμο, Τζέφρι Χίντον, και η μελετήτρια θεμάτων ασφαλείας τεχνητής νοημοσύνης με τις περισσότερες αναφορές, Ντον Σονγκ.

CNN