Τεχνητή Νοημοσύνη: Ηθικά ζητήματα, προβληματισμοί και κίνδυνοι

Τεχνητή Νοημοσύνη: Ηθικά ζητήματα, προβληματισμοί και κίνδυνοι
Άνθρωπος και ρομπότ έρχονται σε επαφή ενώνοντας τα δάχτυλά τους 123RF.COM

Στο συνέδριο Kaspersky Next έγινε μια συζήτηση για τα ζητήματα που αφορούν την Τεχνητή Νοημοσύνη, τη Ρομποτική, την Ηθική και την Ισότητα γενικότερα στον χώρο της Τεχνολογίας.

Πέρασαν κάτι παραπάνω από 20 χρόνια από τότε που μπήκε στις ζωές μας η Kasperky και είναι γεγονός πως το brand έχει φτάσει να θεωρείται συνώνυμο της ασφάλειας για τη διαδικτυακή ζωή εκατομμυρίων χρηστών σε όλο τον κόσμο. Οι περισσότεροι, ωστόσο, δεν γνωρίζουν ή δεν έτυχε να ακούσουν ποτέ ότι η εταιρεία δραστηριοποιείται σε πολλούς διαφορετικούς τομείς της τεχνολογίας και χρησιμοποιεί την τεχνογνωσία της για να προλάβει κινδύνους που ενδεχομένως θα προκύψουν στο μέλλον.

Σε μια προσπάθεια να επικοινωνήσει τις ανησυχίες, τους προβληματισμούς και τις έρευνες της για τις σύγχρονες και μελλοντικές τεχνολογίες, η εταιρεία διοργάνωσε πριν από μερικές ημέρες το συνέδριο Kaspersky Next που πραγματοποιήθηκε στη Λισαβόνα, όπου και είχαμε την τιμή να παρακολουθήσουμε από κοντά. Στο πλαίσιο του συνεδρίου είναι αλήθεια ότι αφήσαμε στην άκρη σχεδόν οποιοδήποτε τελικό προϊόν προέρχεται από την Kaspersky και ουσιαστικά έγινε μια μεγάλη και πολύ ενδιαφέρουσα συζήτηση, με αντικρουόμενες πολλές φορές απόψεις, για τα ζητήματα που αφορούν την Τεχνητή Νοημοσύνη, τη Ρομποτική, την Ηθική και την Ισότητα γενικότερα στον χώρο της Τεχνολογίας.

Τεχνητή Νοημοσύνη – Ισχυρή και Ασθενής

Η έναρξη του συνεδρίου ήταν μάλλον μη αναμενόμενη για τους περισσότερους από εμάς. Προβλήθηκε ένα video με τον ιδρυτή της εταιρείας, κ. Eugene Kaspersky, ο οποίος φρόντισε με μιας να ξεκαθαρίσει την κατάσταση σε ό,τι αφορά τον όρο “Τεχνητή Νοημοσύνη” που χρησιμοποιείται ασύστολα και με κάθε ευκαιρία σήμερα. Χωρίς πολλά πολλά, ο κ. Kaspersky ήταν κατηγορηματικός:

Όποιος μιλά για πραγματική Τεχνητή Νοημοσύνη σήμερα, λέει μ@λ%κ&Ες

Λιγάκι ωμός, αλλά όπως τεκμηριώσαν στη συνέχεια οι ομιλητές του συνεδρίου, αυτή είναι η πραγματικότητα σήμερα. Δεν υπάρχει Τεχνητή Νοημοσύνη υπό την έννοια που τη φανταζόμαστε ή που βλέπουμε στις ταινίες. Αυτή την εποχή το μόνο που έχουμε είναι αλγόριθμοι που εκπαιδεύονται από τις πληροφορίες που τους δίνουμε εμείς, άρα μιλάμε κυρίως για Μηχανική Μάθηση (Machine Learning). Αυτή ονομάζεται “Ασθενής Τεχνητή Νοημοσύνη”.

Σε ό,τι αφορά την “Ισχυρή Τεχνητή Νοημοσύνη”, οι Αμερικανοί πιστεύουν ότι χρειάζονται τουλάχιστον 70 χρόνια μέχρι να φτάσουμε σε αυτό το επίπεδο, ενώ οι Κινέζοι περίπου 35 χρόνια. Αν βγάλουμε το μέσο όρο, βρισκόμαστε καμιά 50αρια χρόνια (το λιγότερο) μακριά από κάτι που θα μπορεί να θεωρηθεί πραγματική Τεχνητή Νοημοσύνη.

Χοντρικά, μπορούμε να πούμε ότι η Ισχυρή Τεχνητή Νοημοσύνη θα είναι ένα σύστημα που θα αναγνωρίζει εξωτερικά αντικείμενα, θα γνωρίζει την ύπαρξη του και θα έχει αυτογνωσία, ενώ θα μπορεί να εφαρμόσει την ευφυΐα του για την επίλυση οποιουδήποτε προβλήματος. Από την άλλη, η Ασθενής Τεχνητή Νοημοσύνη προορίζεται για την επίλυση συγκεκριμένων προβλημάτων, ανάλογα με την εκπαίδευση που έχει λάβει από τους ανθρώπους.

Αντιλαμβάνεστε ότι η Ισχυρής Τεχνητή Νοημοσύνη είναι όντως κάτι πολύ μακρινό με βάση τα σημερινά δεδομένα. Παρόλα αυτά, ο κ. Alexey Malanov (ειδικός στον τομέα του malware) αναφέρθηκε σε ορισμένους κινδύνους και ηθικά ζητήματα που μπορεί να προκύψουν στο μέλλον.

Θα ήταν ηθικό να πονέσεις την Ισχυρή Τεχνητή Νοημοσύνη εάν γνωρίζεις ότι μπορεί να νιώσει πόνο; Να την αφήσεις μόνη της, εάν γνωρίζεις ότι μπορεί να νιώσει μοναξιά; Να της φέρεσαι άσχημα ή σαν σκλάβο; Στον αντίλογο, όμως, ένα τόσο ευφυές και αυτόνομο σύστημα θα μπορούσε να ξεγελάσει τον άνθρωπο ή ακόμη και να τον υποδουλώσει. Έχουμε δει και τις δύο πλευρές του νομίσματος στις ταινίες, αλλά θα το αφήσουμε στην άκρη αφού είναι ένα αρκετά μακρινό σενάριο και στην πραγματικότητα κανείς δεν μπορεί να γνωρίζει πως θα εξελιχθεί και πως να προστατευτούμε από κάτι τέτοιο.

Ασθενής Τεχνητή Νοημοσύνη (Μηχανική Μάθηση) – Προκαταλήψεις και Ισότητα

Αφήνουμε στη άκρη τα μακρινά σενάρια, για να περάσουμε στο σήμερα, τι κάνουμε με την τρόπον τινά Τεχνητή Νοημοσύνη που έχουμε στα χέρια μας αυτήν την εποχή. Για να μη μπερδευόμαστε στο κείμενο, θα την αναφέρουμε ως Μηχανική Μάθηση στο εξής. Στην πολύ ενδιαφέρουσα ομιλία της κ. Kriti Sharma, αλλά και στα panels που στήθηκαν κατά τη διάρκεια του διημέρου, αναλύθηκε η τεράστια σημασία που έχει η εκπαίδευση των αλγορίθμων Μηχανικής Μάθησης. Η γενική ιδέα είναι ότι μπορείς πολύ εύκολα να δημιουργήσεις ένα προκατειλημμένο σύστημα ανάλογα με τα δεδομένα που θα χρησιμοποιήσεις για την εκπαίδευση του. Όπου προκατάληψη βάλτε ό,τι περνά από το μυαλό σας, από ρατσισμό και ομοφοβία μέχρι ψυχοπάθεια.

Η κ. Sharma παρουσίασε παραδείγματα για την αντιμετώπιση της γυναίκας στον χώρο της Τεχνολογίας, όπως αυτό που κάλεσε το κοινό να ψάξει στη μηχανή αναζήτησης της Google τον όρο “CEO”. Ο αλγόριθμος της Google εμφάνισε ως επί το πλείστον κοστουμαρισμένους λευκούς άνδρες. Είναι αλήθεια ότι οι μεγάλες εταιρείες τεχνολογίας έχουν αρχίσει να διορθώνουν αυτά τα προβλήματα, αλλά αυτή είναι και μια απόδειξη πως ένας αλγόριθμος που εκπαιδεύτηκε με συγκεκριμένο τρόπο, θα παρουσιάζει και συγκεκριμένα αποτελέσματα.

Αν αφήσουμε στην άκρη το δέντρο και κοιτάξουμε το δάσος, η Μηχανική Μάθηση είναι αυτή που πλέον παίρνει πολλές αποφάσεις καθημερινά για εμάς, ανεξάρτητα αν το αντιλαμβανόμαστε ή όχι. Σκεφτείτε, για παράδειγμα, τη ροή ειδήσεων που εμφανίζεται στο Google News, το News Feed στο Facebook ή ακόμη και τις προτάσεις για ταινίες σε υπηρεσίες όπως το Netflix. Όλα αυτά είναι για την ώρα “αθώα”, αλλά σταδιακά διαμορφώνουν (ίσως και υποσυνείδητα) τη γνώμη και τις επιθυμίες του χρήστη.

Ένα άλλο σημαντικό σημείο που στάθηκε η κ. Sharma είναι αυτό της χρήσης γυναικείων ονομάτων και φωνών στους ψηφιακούς βοηθούς (π.χ. Siri, Alexa, Google Assistant, Cortana). Με αυτήν την de facto, μέχρι πριν από μερικούς μήνες, επιλογή των εταιρειών, διατηρείται η εικόνα ότι η θέση της γυναίκας είναι να δέχεται και να εκτελεί εντολές. Στο συγκεκριμένο κομμάτι υπήρξε αντιπαράθεση, μιας και ήδη έχει αλλάξει η κατάσταση με επιλογές αντρικών ή ουδέτερων φωνών, ενώ οι έρευνες έχουν δείξει ότι μια γυναικεία φωνή είναι πάντοτε πιο ευχάριστη για την ψυχολογία του χρήστη, ανεξάρτητα από το φύλο του. Θα δώσουμε δίκιο, όμως, στην κ. Sharma για το γεγονός ότι οι χρήστες μιλούν απότομα ή αγενέστατα και απαιτούν από τον ψηφιακό βοηθό την άμεση εξυπηρέτηση του αιτήματός του, μια συμπεριφορά που συνηθίζεται πολύ εύκολα και μπορεί να μεταφερθεί στην πορεία στην πραγματική κοινωνική ζωή τους.

Τι μπορεί να γίνει για να διορθωθεί αυτή η κατάσταση;

Το αναφέραμε και προηγουμένως ότι έχει αρχίσει να αλλάζει η κατάσταση από τις μεγαλύτερες εταιρείες του χώρου. Από την πλευρά της, η κ. Sharma τόνισε στη συνέντευξη που είχαμε μαζί της, την ανάγκη να τεθούν κανόνες που θα αφορούν την εκπαίδευση της Μηχανικής Μάθησης και τη σημασία να συμμετέχουν σε αυτόν τον τομέα άνθρωποι διαφορετικών κοινωνικών στρωμάτων, πολιτισμών, πεποιθήσεων, θρησκειών κλπ., έτσι ώστε να δημιουργούνται μη προκατειλημμένα εργαλεία όσο το δυνατόν πιο κοινής αποδοχής για την επίλυση συγκεκριμένων προβλημάτων.

Aσθενής Τεχνητή Νοημοσύνη (Μηχανική Μάθηση) – Προβλήματα, Ηθική και Κίνδυνοι

Ήδη θα έχετε καταλάβει ότι ένα από τα μεγαλύτερα προβλήματα της Μηχανικής Μάθησης είναι η προκατάληψη. Αν μέχρι σήμερα θεωρούσαμε ότι ορισμένα συστήματα αναπτύχθηκαν έτσι λόγω άγνοιας, όσο περνά ο καιρός γινόμαστε πιο καχύποπτοι για τις σκοπιμότητες που μπορεί να κρύβονται πίσω από οποιονδήποτε αλγόριθμο που θεωρητικά μας εξυπηρετεί. Πρόκειται, λοιπόν, για μια συζήτηση που εμπλέκει την παράμετρο του προβλήματος, του ενδεχόμενου κινδύνου και φυσικά της ηθικής.

Για παράδειγμα, ένα σύστημα Μηχανικής Μάθησης που χρησιμοποιείται στον χώρο της Υγείας, δεν είναι καθόλου απίθανο να έχει εκπαιδευτεί με τέτοιον τρόπο ώστε να βγάζει διαγνώσεις και να προτείνει μεθόδους θεραπείας με απώτερο στόχο το κέρδος και όχι την πραγματική παροχή λύσης για τα προβλήματα των ασθενών. Αν θέλετε και ένα πιο “χαλαρό” παράδειγμα, ας μιλήσουμε για τον αλγόριθμο που σας προτείνει ταινίες σε κάποια πλατφόρμα streaming. Είναι πολύ εύκολο με τον καιρό να επηρεάσει τα γούστα σας και να δημιουργήσει μια τάση για περιεχόμενο που ενδεχομένως θα αποφέρει περισσότερα κέρδη στους δημιουργούς (π.χ. ταινίες με υπερήρωες). Προσέξτε, αυτό δεν σημαίνει ότι θα αλλάξουν τα γούστα σας από τη μια στιγμή στην άλλη, ωστόσο, είναι μια μίνι πλύση εγκεφάλου αν βομβαρδίζεσαι κάθε φορά με ένα συγκεκριμένο είδος. Σε βάθος χρόνου επηρεάζεται η κρίση, ειδικά όταν απευθύνεται σε μεγάλες μάζες χρηστών.

Όλα εξαρτώνται από τα δεδομένα που θα εκπαιδεύσουν το σύστημα και σε αυτό το σημείο είναι η κατάλληλη στιγμή να σημειώσουμε ότι δεν χρειάζεται να είναι απαραίτητα “κακός” αυτός που δημιουργεί και εκπαιδεύει το σύστημα. Όπως ανέλυσε ο κ. Malanov στην παρουσίαση του, η Μηχανική Μάθηση κινδυνεύει από δύο παράγοντες: μπορεί να δηλητηριαστεί και μπορεί να χακαριστεί.

Για το θέμα της “δηλητηριάσης” τα πράγματα είναι ξεκάθαρα και ουσιαστικά αφορά την μόλυνση της βάσης δεδομένων που εκπαιδεύει το σύστημα Μηχανικής Μάθησης με ό,τι αυτό συνεπάγεται για τα αποτελέσματα που θα δίνει. Το κομμάτι του hacking είναι σαφέστατα πιο επικίνδυνο, καθώς ο επίδοξος hacker μπορεί να εκμεταλλευτεί πλήρως το σύστημα για δικό του όφελος.

Χαρακτηριστικό παράδειγμα “δηλητηρίασης” ήταν αυτό με τον αλγόριθμο της Microsoft, η οποία είχε τη φαεινή ιδέα να αφήσει ανοικτό το chatbot Tay στο Twitter με την αφέλεια ότι οι χρήστες θα το ανατροφοτούσαν με θετικό περιεχόμενο. Στόχος της εταιρείας ήταν να εκπαιδευτεί έτσι ώστε να πραγματοποιεί ευχάριστες συζητήσεις και να απαντά πιο φυσικά. Μέσα σε λιγότερο από 24 ώρες, το Tay είχε μετατραπεί σε εργαλείο ναζιστικής προπαγάνδας και φυσικά αποσύρθηκε…

Από την άλλη, για το θέμα του hacking ήταν πολύ ενδιαφέρον το παράδειγμα με τα αυτοοδηγούμενα οχήματα, όπου πολύ μικρές αλλαγές μεταβάλλουν την ικανότητα τους στην αναγνώριση των αντικειμένων και του περιβάλλοντος χώρου, άρα αυξάνεται σημαντικά ο κίνδυνος για τους επιβάτες, τους πεζούς και τους υπόλοιπους οδηγούς. Αντιλαμβάνεστε πόσο επικίνδυνη θα είναι η κατάσταση στο μέλλον εάν κάποιος χακάρει π.χ. το σύστημα της Waymo.

Στη συνέντευξη μας με τον κ. Malanov συζητήσαμε για τους τρόπους καταπολέμησης αυτών των κινδύνων. Στο ζήτημα της “δηλητηρίασης” ήταν ξεκάθαρος πως μπορεί να γίνει πολύ εύκολα κλείνοντας το mode εκμάθησης του αλγορίθμου. Αυτό σημαίνει ότι η εκπαίδευση του θα πρέπει να γίνεται σε κλειστό περιβάλλον και έπειτα να λανσάρεται στο κοινό με απενεργοποιημένο το learning mode. Στο ζήτημα του hacking, παραδέχτηκε ότι δεν μπορείς ποτέ να είσαι σίγουρος ότι δεν θα χακαριστεί ένα σύστημα, αλλά μπορούμε τουλάχιστον να ελαχιστοποιήσουμε όσο γίνεται τις επιπτώσεις ενός πιθανού χακαρίσματος.

Ενδιαφέρουσα ήταν και η απάντηση του κ. Malanov στην ερώτηση μας για το πως μπορείς να καταλάβεις εάν ένα σύστημα Μηχανικής Μάθησης είναι κακόβουλο ή προκατειλημμένο. Η ειλικρινής απάντηση του ήταν ότι όντως δεν μπορείς να το γνωρίζεις, αλλά ακόμη και αν το ξέρεις δεν υπάρχει τρόπος να διορθωθεί εάν δεν γίνει επανεκπαίδευση από την αρχή. Στη περίπτωση που προσπαθήσουμε να του δώσουμε περισσότερα δεδομένα για να επεξεργαστεί με σκοπό να δώσει πιο σωστά αποτελέσματα, υπάρχει πάντοτε ο κίνδυνος να “υπερεκπαιδευτεί” και να χάσει την ικανότητα διαχείρισης των δεδομένων. Αυτό σημαίνει πως μπορεί οι απαντήσεις να μην είναι κακόβουλες ή προκατειλλημένες, αλλά απλά λανθασμένες ή απρόβλεπτες.

Για να συνοψίσουμε τα όσα έχουμε αναφέρει μέχρι στιγμής για την Τεχνητή Νοημοσύνη (Μηχανική Μάθηση) και βάζοντας στην εξίσωση όσα συζητήθηκαν στα panels μεταξύ των ομιλητών και με τις ερωτήσεις των δημοσιογράφων, το μεγάλο δίλημμα είναι το εξής: Θα πρέπει αυτά τα συστήματα να παίρνουν αποφάσεις ή να μας βοηθούν να πάρουμε εμείς την καλύτερη δυνατή απόφαση;

Οι έρευνες έχουν δείξει πως οι αποφάσεις που μπορεί να πάρει ένα τέτοιο σύστημα είναι πολλές φορές λανθασμένες ή/και κακοπροαίρετες για τους λόγους που αναλύσαμε νωρίτερα. Ακόμη και αν λυθεί το ζήτημα της σωστής εκπαίδευσης, θα πρέπει να εκμηδενιστεί ο κίνδυνος δηλητηριασμού ή χακαρίσματος. Όπως κάθε άλλη τεχνολογία, έτσι και αυτή μπορεί να χρησιμοποιηθεί σαν εργαλείο που διευκολύνει τρομακτικά τις ζωές των ανθρώπων σε πολλούς τομείς, αλλά με τον ίδιο τρόπο μπορεί να μετατραπεί σε όπλο για κακόβουλους σκοπούς. Επομένως, αντί να δημιουργείται η ψύχωση για την ανάπτυξη συστημάτων που παίρνουν αποφάσεις, θα είναι καλύτερο να επενδύσουμε στη Μηχανική Μάθηση με σκοπό να κατανοήσει περισσότερο τον χρήστη για να του παρέχει καλύτερες προτάσεις.

Σαν προέκταση αυτής της συζήτησης και φέρνοντας στο προσκήνιο και την Ισχυρή Τεχνητή Νοημοσύνη, είναι ίσως η πρώτη φορά που η Ανθρωπότητα ασχολείται τόσο πολύ και σε βάθος με τις επιπτώσεις που θα μπορούσε να έχει μια νέα τεχνολογία, παρά το γεγονός ότι βρισκόμαστε αρκετά χρόνια μακριά από την πραγματική υλοποίηση της. Μάλιστα, κλείνοντας τη συζήτηση μας με τον κ. Malanov τον ρωτήσαμε εάν θα είναι εφικτό να βάλουμε έναν διακόπτη ασφαλείας ακόμη και στην Ισχυρή Τεχνητή Νοημοσύνη, για να αποφύγουμε τα σενάρια “υποδούλωσης” των ανθρώπων. Η απάντηση του ήταν καταφατική και στάθηκε ξανά στη σημασία της σωστής εκπαίδευσης, κάτι που στην περίπτωση της Ισχυρής Τεχνητής Νοημοσύνης μεταφράζεται στο να της δώσουμε το κίνητρο να αυτοεκπαιδευτεί. Αυτό δεν μπορεί να συμβεί εάν με κάποιον τρόπο δεν καταφέρουμε να της δώσουμε την ικανότητα να νιώθει πόνο για να αναγκαστεί να μάθει, αν και ελλοχεύει ο κίνδυνος ο πόνος να οδηγήσει σε θυμό για αυτόν που τον προκαλεί…Είπαμε, μακρινά σενάρια αλλά αναλύονται ήδη από τους ειδικούς.

Social Robotics

Αφού μιλήσαμε αρκετά για την Τεχνητή Νοημοσύνη (Ισχυρή και Ασθενή), στο επόμενο σκέλος του συνεδρίου Kaspersky NEXT έγινε σύνδεση με τη Ρομποτική, τους τρόπους αλληλεπίδρασης με τους ανθρώπους και τους κινδύνους που μπορούν να προκύψουν και σε αυτόν τον τομέα.

Τον λόγο πήρε ο κ. Tony Balpaeme, καθηγητής Ρομποτικής στο Πανεπιστήμιο της Γάνδης, για να εξηγήσει τις προκλήσεις στις σχέσεις μεταξύ των κοινωνικών (social) ρομπότ και των ανθρώπων. Καταρχάς, να διευκρινήσουμε ότι ένα κοινωνικό ρομπότ (social robot) είναι ουσιαστικά ένα σύστημα Ασθενούς Τεχνητής Νοημοσύνης που διαθέτει φυσική παρουσία (δεν είναι δηλαδή ένα σύστημα τύπου Google Assistant ή Siri) και αλληλεπιδρά με ανθρώπους ή/και άλλα ρομπότ. Αυτή τη στιγμή, τα ρομπότ τοποθετούνται κάπου ανάμεσα στους ανθρώπους και τα κατοικίδια, με την ανάπτυξη τους να βασίζεται στο hardware και την Ασθενή Τεχνητή Νοημοσύνη, και η μεγάλη πρόκληση είναι να βρεθεί μια χρυσή τομή μεταξύ αυτών των δύο και της ανθρώπινης συμπεριφοράς.

Από τις έρευνες και τα πειράματα που πραγματοποίησε η ομάδα του, εξήγαγαν πολύ ενδιαφέροντα συμπεράσματα. Ο κόσμος έχει την τάση να εμπιστεύεται τα ρομπότ περισσότερο από τους ανθρώπους, ενώ ειδικά τα παιδιά μπορούν να επηρεαστούν από αυτά και να συμφωνήσουν σε μια λανθασμένη απόφαση τους, κάτι που δεν συμβαίνει στους ενηλίκους. Ξεκινώντας από το θέμα της εμπιστοσύνης, είναι χαρακτηριστικό το παράδειγμα με τα ρομπότ συντροφιάς στα οποία πολλοί κάτοχοι αποκαλύπτουν ευαίσθητες προσωπικές πληροφορίες επειδή πιστεύουν πως είναι κλειστά συστήματα, αλλά και το παράδειγμα με το ρομπότ – delivery στο οποίο δίνουν πρόσβαση για να εισέλθει σε έναν όροφο μιας εταιρείας όπου κανονικά απαιτείται ειδική άδεια. Μπορεί να φαίνονται “αθώες” καταστάσεις, αλλά θα πρέπει να γνωρίζετε πως τα ρομπότ είναι συνδεδεμένα συστήματα και το λειτουργικό σύστημα τους (ROS) είναι εύκολος στόχος για επιθέσεις πολλών ειδών και μορφών, από υποκλοπή πληροφοριών μέχρι πλήρη έλεγχο του ρομπότ για πρόκληση φυσικών καταστροφών σε βιομηχανικούς χώρους.

Αναγνωρίζοντας, πάντως, ότι οι καιροί έχουν αλλάξει και πως ένα απλό λογισμικό ασφαλείας δεν μπορεί να σε προστατεύσει από όλους τους κινδύνους, οι ερευνητές ετοιμάζουν νέα έκδοση του ROS που θα έχει πρόσβαση σε σύγχρονες βιβλιοθήκες και τεχνολογίες για να διορθώσει πολλά ζητήματα ασφαλείας των social robots.

Honeypots – OpSec – Deepfakes

Η κουβέντα συνεχίστηκε με μια μίνι ανάλυση του τοπίου των απειλών που αφορούν τις συσκευές IoT, με τους κ.κ. Marco Preuss και Dan Demeter, να αναφέρουν ότι μέχρι το 2020 θα υπάρχουν τουλάχιστον 5 δισεκατομμύρια συσκευές IoT συνδεδεμένες στο Internet και εκτεθειμένες σε πολλών ειδών κινδύνους.

Η λύση που προτείνουν είναι τα Honeypots, τα οποία γενικά μιλώντας θα μπορούσαμε να χαρακτηρίσουμε ως “παγίδες” που τραβούν επάνω τους τις επιθέσεις για να τις μελετήσουν και να προχωρήσουν στη συνέχεια σε διορθώση των κενών ασφαλείας. Αυτά τα Honeypots είναι απλωμένα σε παγκόσμιο επίπεδο και στόχος είναι να πολλαπλασιαστούν σε συνεργασία με παρόχους τηλεπικοινωνιών, αλλά και με απλούς χρήστες.

Στη συνέχεια, οι δύο ομιλητές μας παρουσίασαν τρόπους για να προστατευόμαστε ψηφιακά όταν ταξιδεύουμε!

Μην αφήνεις ποτέ τις ηλεκτρονικές συσκευές σου στο ξενοδοχείο

Παίρνε μαζί σου μόνο τις πραγματικά απαραίτητες συσκευές στα ταξίδια σου

Αγόρασε RFID blocker για τις πιστωτικές κάρτες σου

Μην εμπιστεύεσαι άγνωστα καλώδια επειδή κάποιος π.χ. μπορεί να θέλει να φορτίσει το κινητό του στο laptop σου

Όταν διαμένεις για 2-3 ημέρες μην ζητάς καθαρίστρια και βάλε το Do Not Disturb. Πραγματικά δεν υπάρχει λόγος και προστατεύεσαι νόμιμα από την είσοδο προσωπικού στο δωμάτιο σου.

Γενικά είναι πανεύκολη η παραβίαση των κλειδαριών στα ξενοδοχεία, ειδικά σε αυτά με RF cards.

Έλεγξε αν ο καθρέπτης είναι απλός ή διπλός!

Ο λευκός θόρυβος μπορεί να σε προστατεύσει από κοριούς

Τσέκαρε με την κάμερα του smartphone αν υπάρχουν κάμερες. Τα περισσότερα σύγχρονα smartphones βλέπουν την υπέρυθρη ακτινοβολία

Καλύψε τη webcam με ταινία

Για το θέμα των Deepfakes μίλησε ο κ. David Jacoby, Security Evangelist της Kaspersky. Σε περίπτωση που δεν θυμάστε, τα deepfakes είναι αυτά τα πολύ αληθοφανή ψεύτικα ηχητικά μηνύματα ή videos όπου χρησιμοποιείται η φωνή ή το πρόσωπο κάποιου (συνήθως) διάσημου. Μέχρι στιγμής η τεχνολογία αυτή χρησιμοποιείται κυρίως στο πορνό, αλλά έχουν καταγραφεί και πιο σοβαρά περιστατικά όπως αυτό της τηλεφωνικής εξαπάτησης ενός CEO που προχώρησε στην κατάθεση $243.000.

Ο κ. Jacoby σημείωσε ότι όσο βελτιώνεται η τεχνολογία, τόσο θα μεγαλώνει η αληθοφάνεια τους και θα γίνεται δυσκολότερο να καταλάβουμε αν πρόκειται για ψεύτικο video ή ηχητικό μήνυμα. Αυτό θα μπορούσε να οδηγήσει σε εκθετική αύξηση των phishing scams, στην εξάπλωση πολύ επικίνδυνων fake news και προφανώς στην παράκαμψη βιομετρικών συστημάτων αναγνώρισης προσώπου. Δυστυχώς, είναι πολύ εύκολο και θα γίνεται ακόμη πιο εύκολο για τον καθένα να χρησιμοποιήσει αυτήν την τεχνολογία, με αποτέλεσμα στο μέλλον να φτάσουμε στο σημείο να μην ξέρουμε τι να πιστέψουμε.

Μια κάποια λύση θα ήταν η σωστή ενημέρωση, η εκπαίδευση και η εφαρμογή σωστών διαδικασιών προστασίας από άπατες (ειδικά σε εταιρείες και μεγάλους οργανισμούς), αλλά ενδεχομένως να κριθεί αναγκαία η ανάπτυξη κάποιας νέας τεχνολογίας που θα αναγνωρίζει αν κάτι είναι deepfake ή όχι.

Επίλογος

Πολλά και ενδιαφέροντα τα θέματα που συζητήθηκαν στο Kaspersky NEXT 2019, με πολύ θετικό το γεγονός ότι άνοιξε ο διάλογος για τεχνολογίες που ακούγονται μεν μακρινές, ωστόσο, επηρεάζουν ήδη την καθημερινότητα μας. Αυτό που κρατάμε περισσότερο είναι η ανάγκη να μπουν κανόνες στην ανάπτυξη της Τεχνητής Νοημοσύνης (Μηχανικής Μάθησης) με γνώμονα το γενικό καλό και σεβασμό στη διαφορετικότητα. Κίνδυνοι υπάρχουν και θα υπάρχουν πάντοτε, αλλά είναι μια χρυσή ευκαιρία να γίνει σωστά η δουλειά τώρα που βρισκόμαστε στην αρχή.

Από αυτή τη σωστή εκπαίδευση θα κριθεί εάν μπορούμε να εμπιστευτούμε στο μέλλον ολοένα και πιο εξελιγμένα συστήματα για χρήση τους στους χώρους της Βιομηχανίας, της Υγείας και της Εκπαίδευσης.

Ροή Ειδήσεων

Περισσότερα