Κώδικας αρχών για να αποφύγουμε την.. εξέγερση των ρομπότ. - Greece-Salonika| Ενημέρωση και Άποψη

NEWSROOM

Post Top Ad

Δευτέρα 6 Φεβρουαρίου 2017

Κώδικας αρχών για να αποφύγουμε την.. εξέγερση των ρομπότ.


  • Oμάδα επιφανών επιστημόνων, διανοητών και κορυφαίων εμπειρογνωμόνων, όπως ο Stephen Hawking, ο Larry Page της Google και ο Elon Musk, δημοσιοποίησαν έναν «κώδικα αρχών» (διαβάστε τον ολόκληρο παρακάτω) πάνω στον οποίο πρότειναν να βασιστούν οι επιστήμονες και οι ερευνητές καθώς εκφράζουν φόβους πως τα ρομπότ εξελίσσονται ραγδαία και θα έρθει η στιγμή που θα γίνουν τόσο έξυπνα ώστε να μπορούν να πάρουν την κατάσταση στα χέρια τους και να πάψουν να υπακούν στις εντολές των ανθρώπων!

 Οι εφαρμογές Τεχνητής Νοημοσύνης και ρομποτικής αυξάνονται και πληθύνονται το τελευταίο διάστημα. Παράλληλα όμως με τον ενθουσιασμό, πολλοί επιστήμονες εκφράζουν την ανησυχία τους για... την επόμενη ημέρα. Ή τη μεθεπόμενη. Τότε δηλαδή που τα ρομπότ θα έχουν γίνει τόσο έξυπνα ώστε να πάρουν την κατάσταση στα χέρια τους και να πάψουν να υπακούν στις εντολές των ανθρώπων.

Και, ποιος ξέρει, ίσως να στραφούν εναντίον μας.

Όλα αυτά ενδέχεται να ακούγονται ως απόσπασμα από σενάριο ταινίας επιστημονικής φαντασίας, αλλά η επιστημονική κοινότητα έχει ενσκήψει πάνω από το ζήτημα, ώστε να μην εξελιχθεί σε πρόβλημα. Μεταξύ αυτών και μία ομάδα επιφανών επιστημόνων, διανοητών και κορυφαίων εμπειρογνωμόνων, όπως ο Stephen Hawking, ο Larry Page της Google και ο Elon Musk, οι οποίοι παρεμπιπτόντως έχουν κατ’ επανάληψη εκφράσει δεύτερες σκέψεις για τη μελλοντική συνύπαρξη ανθρώπων και ρομπότ.

Το μέλλον της ζωής

Την περασμένη εβδομάδα μάλιστα δημοσιοποίησαν έναν «κώδικα αρχών» πάνω στον οποίο θα πρότειναν να βασιστούν οι επιστήμονες και οι ερευνητές που ασχολούνται με την ΑΙ και τη ρομποτική. Ο κώδικας συζητήθηκε αναλυτικά κατά τη διάρκεια του συνεδρίου Beneficial AI, που διοργανώθηκε στις αρχές του έτους από το Ινστιτούτο Future of Life.

Οι κατευθυντήριες γραμμές του κώδικα «Asilomar AI Principles» (από την περιοχή Asilomar της Καλιφόρνια όπου οργανώθηκε το συνέδριο) καλύπτουν θέματα έρευνας, την ηθική και τις αξίες της έρευνας και της ανάπτυξης, αλλά και πιο μακροπρόθεσμα ζητήματα, από τον τρόπο συνεργασίας των επιστημόνων με τις κυβερνήσεις, έως την αντιμετώπιση φονικών απειλών από τις μηχανές ή την πιθανότητα αυτοαναπαραγωγής των ρομπότ.

Το βασικότερο συμπέρασμα της εκπόνησης αυτού του κώδικα είναι ότι είναι άμεση ανάγκη να τεθεί ένα πλαίσιο αλλά και συγκεκριμένα όρια στην εξέλιξη, με γνώμονα το πόσο ωφέλιμη είναι για την ανθρωπότητα η AI. Γιατί προς το παρόν η ΑΙ μας συμβουλεύει πώς θα πλύνουμε τα δόντια μας ή μας κερδίζει στο πόκερ αλλά οι δυνατότητές της είναι εν πολλοίς αδιανόητες με τα σημερινά δεδομένα.


23 αρχές για ένα ευοίωνο αύριο
Οι αρχές του κώδικα αξιών που εκπονήθηκαν συνοπτικά:

1. Ο στόχος της έρευνας AI θα πρέπει να είναι η δημιουργία ευεργετικής και όχι ανεξέλεγκτης νοημοσύνης.

2. Οι επενδύσεις στην AI θα πρέπει να συνοδεύονται από χρηματοδότηση για την έρευνα σχετικά με τη διασφάλιση της ευεργετική χρήσης της, αλλά και άλλων ζητημάτων, όπως: η ισχυροποίηση των συστημάτων ΑΙ, ώστε να μη δυσλειτουργούν ή να μην είναι ευάλωτα σε hacking, η βελτίωση της ανθρώπινης ευημερίας μέσω της αυτοματοποίησης, η αναβάθμιση των νομικών συστημάτων ώστε να συμβαδίζουν με τις εξελίξεις στην ΑΙ κ.α..

3. Η εποικοδομητική και υγιής ανταλλαγή απόψεων μεταξύ των ερευνητών AI και των υπεύθυνων χάραξης πολιτικής.

4. Η ανάπτυξη κουλτούρας συνεργασίας, εμπιστοσύνης και διαφάνειας μεταξύ ερευνητών και προγραμματιστών.

5. Η στενή συνεργασία των ομάδων ανάπτυξης συστημάτων AI ώστε να αποφευχθούν «ατυχήματα» στη διαχείριση των προτύπων ασφαλείας.

Ηθική και αξίες

6. Τα συστήματα AI θα πρέπει να είναι ασφαλή καθ’ όλη τη διάρκεια της λειτουργικής «ζωής» τους.

7. Εφόσον ένα σύστημα AI προκαλέσει ατύχημα ή βλάβη, θα πρέπει να είναι εφικτή η άμεση διακρίβωση των αιτιών.

8. Οποιαδήποτε συμμετοχή αυτόνομου συστήματος σε δικαστική διαδικασία ή διαδικασία λήψης αποφάσεων θα πρέπει να συνοδεύεται από πλαίσιο κανόνων που θα τίθεται από αρμόδια αρχή στην οποία θα συμμετέχουν άνθρωποι.

9. Οι σχεδιαστές και κατασκευαστές των προηγμένων συστημάτων AI θα έχουν νομική ευθύνη και θα είναι υπόλογοι για τις ηθικές επιπτώσεις της χρήσης τους, αλλά και των πράξεων τους, ώστε να φροντίζουν για την αποτροπή των αρνητικών συνεπειών.

10. Τα αυτόνομα συστήματα AI θα πρέπει να σχεδιάζονται ούτως ώστε οι στόχοι και οι συμπεριφορές τους να ευθυγραμμίζονται με τις ανθρώπινες αξίες καθ’ όλη τη διάρκεια της λειτουργίας τους.

11. Τα συστήματα AI θα πρέπει να σχεδιάζονται και να λειτουργούν ώστε να είναι συμβατά με τα ιδανικά της ανθρώπινης αξιοπρέπειας, των δικαιωμάτων, των ελευθεριών και της πολιτιστικής πολυμορφίας.

12. Οι άνθρωποι πρέπει να έχουν το δικαίωμα πρόσβασης, διαχείρισης και ελέγχου των δεδομένων που παράγουν, διαχειρίζονται και αναλύουν τα συστήματα AI.

13. Η εφαρμογή της AI σε δεδομένα προσωπικού χαρακτήρα δεν δύναται να περιορίζει τις ελευθερίες των ανθρώπων, ούτε να θίγει τα προσωπικά τους δεδομένα.

14. Οι τεχνολογίες AI θα πρέπει να λειτουργούν επ’ ωφελεία όσο το δυνατόν περισσότερων ανθρώπων.

15. Η οικονομική ευημερία που δημιουργείται από την AI θα πρέπει να διαμοιράζονται προς όφελος όλης της ανθρωπότητας.

16. Οι άνθρωποι πρέπει να επιλέγουν το πώς και αν θα αναθέτουν αποφάσεις στα συστήματα AI, προκειμένου να επιτυγχάνουν τους στόχους που έχουν προηγουμένως θέσει οι ίδιοι οι άνθρωποι και όχι οι μηχανές.

17. Η εξουσία που πηγάζει από τον έλεγχο των εξαιρετικά προηγμένων συστημάτων AI θα πρέπει να σέβεται και να βελτιώνει, και σε καμία περίπτωση να μην ανατρέπει τις κοινωνικές και πολιτικές διεργασίες από τις οποίες εξαρτάται η ευημερία της κοινωνίας.

18. Η κούρσα των εξοπλισμών θανατηφόρων αυτόνομων όπλων πρέπει να αποφευχθεί.

Μακροπρόθεσμα ζητήματα

19. Θα πρέπει να μη διατυπώνουμε με βεβαιότητα απόψεις σχετικά με τα ανώτατα όρια των μελλοντικών δυνατοτήτων της AI.

20. Η προηγμένη AI θα μπορούσε να προκαλέσει βαθιές αλλαγές στον ανθρώπινο πολιτισμό και τη ζωή στη Γη, και θα πρέπει να σχεδιάζεται και να αντιμετωπίζεται με την απαιτούμενη προσοχή.

21. Οι κίνδυνοι που ενέχουν τα συστήματα AI, ιδιαίτερα όσοι θεωρούνται πιθανόν καταστροφικοί ή απειλητικοί για την ύπαρξη της ανθρωπότητας, πρέπει να υπόκειται σε ειδικό σχεδιασμό ώστε να μετριάζονται οι πιθανές επιπτώσεις τους.

22. Τα συστήματα AI που σχεδιάζονται ώστε να αυτοβελτιώνονται ή να αυτοαναπαράγονται πρέπει να υπόκεινται σε αυστηρά μέτρα ασφαλείας και ελέγχου.

23. Η ανώτερη νοημοσύνη πρέπει να αναπτύσσεται μόνο στην υπηρεσία των ευρέως αποδεκτών ηθικών ιδανικών και προς όφελος όλης της ανθρωπότητας και όχι προς όφελος ενός κράτους, εταιρείας ή οργανισμού.
Bookmark and Share