Άρθρο αναδημοσιευμένο από τους

Οι εργοδότες μπερδεύουν το προσωπικό σχετικά με τους κανόνες της ΑΙ

Διαβάζεται σε 8'
Χρήση ΑΙ
Χρήση ΑΙ istock

Συνιστάται στις επιχειρήσεις να θεσπίσουν σαφείς πολιτικές που να καλύπτουν ποια εργαλεία μπορούν να χρησιμοποιηθούν και πώς.

Ορισμένοι εργοδότες είναι σαφείς σχετικά με την Τεχνητή Νοημοσύνη, προσφέροντας μπόνους στο προσωπικό που τη χρησιμοποιεί τακτικά και προειδοποιώντας για πιθανές πειθαρχικές κυρώσεις σε περίπτωση κατάχρησής της.

Άλλοι δεν έχουν καταφέρει να θέσουν ούτε καν τις ελάχιστες κατευθυντήριες γραμμές, με αποτέλεσμα πολλοί εργαζόμενοι να μπερδεύονται ως προς το πώς να χρησιμοποιήσουν τα νέα εργαλεία στις εργασίες τους.

Η αδιαφάνεια που περιβάλλει τις πολιτικές των εταιρειών έχει ως αποτέλεσμα το προσωπικό να διατηρεί κρυφά προσωπικούς λογαριασμούς τεχνητής νοημοσύνης ή να ανακαλύπτει ότι έχει παραβιάσει ακούσια τους κανόνες, σύμφωνα με δικηγόρους και ειδικούς σε θέματα απασχόλησης.

Το πρόβλημα πηγάζει από τις πρώτες ημέρες κατά τις οποίες οι εταιρείες «έλεγαν επιθετικά στους ανθρώπους να μην χρησιμοποιούν AI, λόγω φόβων για διαρροή προσωπικών δεδομένων», λέει ο Joshua Wöhle, διευθύνων σύμβουλος της Mindstone, μιας διαδικτυακής πλατφόρμας που προσφέρει εκπαίδευση AI. «Αυτό είχε μεγάλη επίδραση στο να φοβούνται οι άνθρωποι να τη χρησιμοποιήσουν».

Ακόμη και τώρα που οι εργοδότες εγκρίνουν τη χρήση AI στον χώρο εργασίας, «το κατάλοιπο είναι μακροχρόνιο», προσθέτει. Το αποτέλεσμα είναι ότι υπάρχουν «άνθρωποι που δεν τη χρησιμοποιούν καθόλου. Ή όσοι τη χρησιμοποιούν, το κάνουν μέσω ιδιωτικού λογαριασμού».

Προειδοποιεί ότι το πρόβλημα είναι «δραματικά μεγαλύτερο» απ’ ό,τι υποθέτουν πολλοί διευθυντές.

Ο Jason Ross, στέλεχος στην αμερικανική δικηγορική εταιρεία Wood Smith Henning & Berman, αναφέρει ότι έχει δεχθεί κλήσεις από διευθυντές που είναι «βαθιά ανήσυχοι» για «σκόπιμη ή απλώς ακούσια αμέλεια» από εργαζομένους που αγνοούν τους κινδύνους και τις κατευθυντήριες γραμμές της εταιρείας. Το πιο συνηθισμένο παράπονο των εργοδοτών, λέει, αφορά άτομα που χρησιμοποιούν εργαλεία AI χωρίς «κατάλληλη επίβλεψη και έλεγχο».

Στον νομικό κλάδο, υπήρξαν σοβαρές περιπτώσεις παραβίασης κανόνων των δικαστηρίων, σχετικά με την υποχρέωση γνωστοποίησης της χρήσης AI, οδηγώντας σε «ντροπιαστικά αποτελέσματα για δικηγόρους και εταιρείες, κυρώσεις, αρνητική δημοσιότητα, αρνητικά αποτελέσματα για τον πελάτη, συνέπειες ως προς την επαγγελματική ευθύνη και σημαντική βλάβη στη φήμη», σημειώνει.

«Μπορεί επίσης να υπάρξουν σοβαρές πειθαρχικές συνέπειες για τον εμπλεκόμενο δικηγόρο, συμπεριλαμβανομένης της απώλειας εργασίας». Ένα δικαστήριο της Καλιφόρνια, επέβαλε πρόστιμο αφού ένας δικηγόρος δημιούργησε «ψευδείς νομικές πηγές μέσω AI».

Η Sinead Casey, επικεφαλής του τομέα εργασιακού δικαίου στο Ηνωμένο Βασίλειο για τη Linklaters, αναμένει ότι τα πειθαρχικά ζητήματα θα εμφανιστούν στα εργατικά δικαστήρια. «Οι πελάτες ενσωματώνουν την κακή χρήση AI. Είναι ακόμα αρκετά νωρίς. Είμαι βέβαιη ότι αυτό έρχεται».

Για να αποφευχθεί η κλιμάκωση των περιστατικών σε αυτό το επίπεδο, οι επικεφαλής των επιχειρήσεων καλούνται να θεσπίσουν σαφείς πολιτικές. Αυτές συνήθως καλύπτουν «την εμπιστευτικότητα, τους κινδύνους προκατάληψης και διακρίσεων, την ανάγκη για ανθρώπινη εμπλοκή και έλεγχο, καθώς και ζητήματα απορρήτου και ασφάλειας δεδομένων», λέει η Casey. Θα πρέπει επίσης να διευκρινίζουν ποια εργαλεία Τεχνητής Νοημοσύνης επιτρέπονται, προσθέτει, εάν ο εργαζόμενος θα πρέπει να αποκαλύπτει στους διευθυντές πότε χρησιμοποιούνται τα εν λόγω εργαλεία για την εκτέλεση εργασιών, και να διευκρινίζουν ότι μια παραβίαση μπορεί να οδηγήσει σε πειθαρχικά μέτρα, έως και απόλυση.

Ο Jason Ross προσθέτει ότι σε γενικές γραμμές, οι τυπικές εταιρικές πολιτικές επιβάλλουν «τη βασική ανθρώπινη συμμετοχή, όχι την πλήρη μετατόπιση λειτουργιών προς την Τεχνητή Νοημοσύνη».

Θα πρέπει να «υπαγορεύουν ελέγχους σχετικά με το τι μπορεί και τι δεν μπορεί να εισαχθεί σε συστήματα Τεχνητής Νοημοσύνης και ποια εργαλεία ή συστήματα Τεχνητής Νοημοσύνης επιτρέπεται και δεν επιτρέπεται να χρησιμοποιούν οι εργαζόμενοι».

Άλλοι προτείνουν την ενίσχυση των πολιτικών θετικής χρήσης από τα ανώτερα διευθυντικά στελέχη. «Αν η εκτελεστική ομάδα το κάνει σωστά και αναδεικνύει τη χρήση με θετικό τρόπο, αυτό περνάει προς τα κάτω», λέει ο Wöhle.

Οι εταιρείες θα πρέπει επίσης να ορίσουν εκπαιδευμένο προσωπικό για να παρέχει παραδείγματα χρήσης και να απαντά σε ερωτήσεις σχετικά με τις πολιτικές, καθώς η τεχνολογία και οι εφαρμογές εξελίσσονται.

Η κουλτούρα είναι κρίσιμη για την ενθάρρυνση της χρήσης της τεχνητής νοημοσύνης νέας γενιάς, προσθέτει ο Wöhle. «Είναι η τεχνητή νοημοσύνη κάτι που ενθαρρύνεται, ή κάτι που πρέπει να κρύβεται; Εάν χρησιμοποιείτε τεχνητή νοημοσύνη, αισθάνονται οι εργαζόμενοι υπερήφανοι που χρησιμοποιούν την τεχνητή νοημοσύνη για να επιτύχουν αποτελέσματα; Ή τη χρησιμοποιούν κρυφά επειδή φοβούνται ότι θα φανεί πως εξαπατούν; Εάν δεν είναι σαφές στους ανθρώπους εάν θα επιβραβευθούν ή θα επικριθούν γι’ αυτό, τότε το πρώτο θα οδηγήσει σε καλύτερη υιοθέτηση και διαφάνεια, ενώ το δεύτερο όχι».

Φέτος, μια παγκόσμια έρευνα της KPMG και του Πανεπιστημίου της Μελβούρνης σε δείγμα 48.340 επαγγελματιών διαπίστωσε ότι το 44% των εργαζομένων παραβιάζει τις πολιτικές και τις οδηγίες των οργανισμών σχετικά με την Τεχνητή Νοημοσύνη και το 61% αποκρύπτει τη χρήση εργαλείων Τεχνητής Νοημοσύνης στην εργασία, με περισσότερους από τους μισούς να παρουσιάζουν περιεχόμενο Τεχνητής Νοημοσύνης ως δικό τους.

Η Niale Cleobury, επικεφαλής παγκόσμιου εργατικού δυναμικού στον τομέα της Τεχνητής Νοημοσύνης στην KPMG, λέει: «Πρέπει να είμαστε θετικοί και να αφήνουμε τους ανθρώπους να αισθάνονται ότι μπορούν να πειραματιστούν». Αυτό μπορεί να σημαίνει, για παράδειγμα, μια ευρεία συζήτηση σε μια ομαδική συνάντηση για το πώς χρησιμοποιήθηκε η Τεχνητή Νοημοσύνη και ακολούθως ανταλλαγή ιδεών. «Δεν θέλω να την ελέγχω, αλλά θέλω να ξέρω πώς την έχουν χρησιμοποιήσει».

Η πρόκληση για τους εργοδότες είναι ότι προσπαθούν να γράψουν στατικούς κανόνες για μια δυναμική τεχνολογία, λέει ο Rohan Sathe, διευθύνων σύμβουλος της Nightfall AI, μιας πλατφόρμας προστασίας δεδομένων cloud. Πιστεύει ότι οι εργαζόμενοι «δεν προσπαθούν να κρύψουν» τη χρήση της Τεχνητής Νοημοσύνης, αλλά «απλώς δεν γνωρίζουν ότι πρόκειται για πρόβλημα» επειδή οι περισσότεροι οργανισμοί δεν έχουν επικοινωνήσει σαφείς πολιτικές.

Συμβουλεύει τους εργοδότες να παρέχουν καθοδήγηση σε πραγματικό χρόνο μέσω πλατφορμών ανταλλαγής μηνυμάτων όπως το Slack, το email ή οι βιντεοκλήσεις. «Μια πολιτική που έχει συνταχθεί τον Μάρτιο θεωρείται ξεπερασμένη μέχρι τον Νοέμβριο».

Η Casey συμφωνεί ότι ο ρυθμός ανάπτυξης σημαίνει πως οι πολιτικές AI δεν μπορούν να γραφτούν μία φορά και μετά «να μπουν στο συρτάρι». «Αυτό είναι πρωτοφανές. Δεν υπάρχει τίποτα συγκρίσιμο όσον αφορά την εκρηκτική άνοδο της παραγωγικής Τεχνητής Νοημοσύνης αλλά και τις επιπτώσεις της στο νομικό και ανθρώπινο δυναμικό».

Παρά τους πιθανούς κινδύνους, το 19% των ερωτηθέντων στην έρευνα Digital Consumer Trends της Deloitte δήλωσαν ότι η εταιρεία τους δεν διέθετε πολιτική ή οδηγίες σχετικά με την παραγωγική Τεχνητή Νοημοσύνη και το 14% δεν γνώριζε εάν η εταιρεία τους διέθετε πολιτική.

Έρευνα της WalkMe, εταιρείας της SAP, διαπίστωσε ότι οι εργαζόμενοι χρησιμοποιούσαν εργαλεία Τεχνητής Νοημοσύνης κρυφά επειδή οι επιλογές που είχε εγκρίνει η εταιρεία ήταν κακής ποιότητας.

Ορισμένες εταιρείες θέτουν μπόνους για να ενθαρρύνουν την ανοιχτή και κατάλληλη χρήση της AI.

Ένας οργανισμός δημιούργησε έναν πίνακα κατάταξης, προσφέροντας 10.000 δολάρια στον υπάλληλο που θα παρήγαγε τον μεγαλύτερο αριθμό ποιοτικών prompts, καθώς και τη πιο καινοτόμο χρήση, με τους συναδέλφους να ψηφίζουν για τα αποτελέσματα. «Η συμμετοχή ήταν εξαιρετική», λέει ο Wöhle.

Η Emma Grede, συνιδρύτρια της Skims, εταιρείας της shapewear, και της μάρκας τζιν Good American, μίλησε για παροχή κινήτρων στο προσωπικό μέσω ενός «συστήματος μπόνους» για τη χρήση της τεχνητής νοημοσύνης για τη βελτίωση της παραγωγικότητας.

Τον Απρίλιο, η δικηγορική εταιρεία Shoosmiths παρουσίασε ένα μπόνους 1 εκατομμυρίου λιρών για να μοιραστεί μεταξύ των εργαζομένων σε περίπτωση που επιτύχουν τον στόχο υποβολής 1 εκατομμυρίου prompts εντός του έτους. Αναμένεται να το επιτύχουν αρκετούς μήνες νωρίτερα.

Το προσωπικό μπορεί να χρησιμοποιεί το Copilot της Microsoft για να συνοψίζει και να βελτιώνει έγγραφα, καθώς και αξιολογήσεις απόδοσης, αλλά απαγορεύεται να καταφεύγει στην AI για οποιαδήποτε συγκεκριμένα νομικά ερωτήματα.

Ο Tony Randle, συνεργάτης της εταιρείας, λέει: «(το εργαλείο ΑΙ) Δεν έχει εκπαιδευτεί για να είναι δικηγόρος. Είναι πολύ αξιόπιστο, αλλά σίγουρα δεν έχει αυτή την ικανότητα. Ενθαρρύνουμε τους ανθρώπους να το χρησιμοποιούν για σαφήνεια, συναίσθημα και συντομία».

Η εταιρεία διερευνά επίσης νομικές πλατφόρμες που έχουν σχεδιαστεί για να βοηθούν τους δικηγόρους στα καθήκοντά τους, ωστόσο, θέτει ορισμένους σαφείς περιορισμούς.

Γνωρίζοντας ότι η υπεύθυνη χρήση της Τεχνητής Νοημοσύνης επεκτείνεται και στην ευαισθητοποίηση απέναντι στο περιβάλλον, η Shoosmiths έχει απαγορεύσει στο προσωπικό να χρησιμοποιεί την τεχνολογία για την παραγωγή εικόνων. «Η παραγωγή εικόνων από την Τεχνητή Νοημοσύνη παράγει 10 φορές την ενέργεια που θα απαιτούσε ένα αποτέλεσμα βασισμένο σε λέξεις. Δεν θα θέλαμε οι άνθρωποι να καταναλώνουν ενέργεια».

© The Financial Times Limited 2025. Όλα τα δικαιώματα διατηρούνται. Απαγορεύεται η αναδιανομή, αντιγραφή ή τροποποίηση με οποιονδήποτε τρόπο. Το NEWS 24/7 φέρει την αποκλειστική ευθύνη για την παρούσα μετάφραση και η Financial Times Limited δεν αποδέχεται καμία ευθύνη για την ακρίβεια ή την ποιότητα της μετάφρασης.

Ροή Ειδήσεων

Περισσότερα