Στο πρώτο άρθρο αυτής της ανάλυσης δύο μερών, εξετάσαμε σε ποιον ανήκει ο κώδικας που δημιουργείται από chatbots AI όπως το ChatGPT και διερευνήσαμε τις νομικές συνέπειες της χρήσης κώδικα που δημιουργείται από AI.
Μέρος I: Σε ποιον ανήκει ο κωδικός; Εάν το ChatGPT AI σάς βοηθά να γράψετε την εφαρμογή σας, σας ανήκει;
Θα συζητήσουμε τώρα θέματα ευθύνης και επιπτώσεων.
Λειτουργική Υπευθυνότητα
Για να πλαισιώσω αυτήν τη συζήτηση, απευθύνομαι σε έναν δικηγόρο και επί μακρόν μέλος της Συντεχνίας Τύπου του Διαδικτύου. Ρίτσαρντ Σανταλέζα. Με υπόβαθρο στη δημοσιογραφία τεχνολογίας, ο Santalesa κατανοεί αυτά τα πράγματα τόσο από νομική όσο και από τεχνική άποψη. (Είναι ένας από τους ιδρυτές της ομάδας SmartEdgeLaw.)
«Μέχρι να υπάρξουν υποθέσεις στα δικαστήρια για να απαντηθεί οριστικά αυτή η ερώτηση, οι νομικές συνέπειες του κώδικα που δημιουργείται από την τεχνητή νοημοσύνη θα είναι ίδιες με εκείνες του κώδικα που δημιουργείται από τον άνθρωπο», συμβουλεύει.
Λάβετε υπόψη, συνεχίζει, ότι ο κώδικας που δημιουργήθηκε από τους ανθρώπους απέχει πολύ από το να είναι αλάνθαστος. Δεν θα υπάρξει ποτέ συμφωνία επιπέδου υπηρεσίας που να εγγυάται ότι ο κώδικας είναι άψογος ή ότι οι χρήστες θα έχουν αδιάκοπη εμπειρία με τις υπηρεσίες.
Επίσης: Το ChatGPT και το νέο AI προκαλούν όλεθρο στην ασφάλεια στον κυβερνοχώρο με συναρπαστικούς και τρομακτικούς τρόπους
Ο Santalesa σημειώνει επίσης ότι είναι σπάνιο κάθε κομμάτι λογισμικού να είναι εξ ολοκλήρου εσωτερικό. «Οι περισσότεροι προγραμματιστές χρησιμοποιούν SDK και βιβλιοθήκες κώδικα που δεν έχουν δοκιμάσει ή ελέγξει προσωπικά, αλλά εξακολουθούν να βασίζονται σε αυτά», λέει. «Πιστεύω ότι ο κώδικας που δημιουργείται από AI σε αυτό το σημείο θα είναι στην ίδια κατηγορία με τις νομικές επιπτώσεις».
Στείλε τα τρολ
Ο Sean O’Brien, καθηγητής κυβερνοασφάλειας στο Yale Law School και ιδρυτής του Yale Privacy Lab, επισημαίνει έναν κίνδυνο για τους προγραμματιστές που αναμφίβολα προκαλεί ανησυχία:
Η πιθανότητα ότι οι υποδείξεις τεχνητής νοημοσύνης θα μπορούσαν να συναγάγουν ιδιόκτητο κώδικα είναι πολύ υψηλή όταν μιλάμε για εργαλεία όπως το ChatGPT και το Copilot, τα οποία έχουν εκπαιδευτεί σε τεράστιο όγκο κώδικα, τόσο ανοιχτού κώδικα όσο και αποκλειστικού.
Δεν γνωρίζουμε ακριβώς ποιος κώδικας χρησιμοποιήθηκε για την εκπαίδευση των chatbot. Αυτό σημαίνει ότι δεν γνωρίζουμε εάν τα τμήματα κώδικα δημιουργούνται από το ChatGPT και άλλα παρόμοια εργαλεία τεχνητής νοημοσύνης ή απλώς αντικατοπτρίζονται από τον κώδικα που έχει υιοθετήσει ως μέρος της διαδικασίας εκπαίδευσής του.
Επίσης: 5 τρόποι για να εξερευνήσετε χρησιμοποιώντας το Generative AI στην εργασία
Εάν είστε προγραμματιστής, ήρθε η ώρα να προετοιμαστείτε. Ακολουθεί η πρόβλεψη του O’Brien:
Πιστεύω ότι σύντομα θα υπάρξει ένα ολόκληρο υποπεδίο τρολάρισμα που θα αντιγράφει τα τρολ με διπλώματα ευρεσιτεχνίας, αλλά αυτή τη φορά θα περιλαμβάνει έργα που δημιουργούνται από την τεχνητή νοημοσύνη. Καθώς περισσότεροι συντάκτες χρησιμοποιούν εργαλεία που τροφοδοτούνται από AI για να απελευθερώσουν κώδικα βάσει αποκλειστικών αδειών χρήσης, δημιουργείται ένας βρόχος ανατροφοδότησης. Τα οικοσυστήματα λογισμικού θα αναδυθούν, θα μολυνθούν από ιδιόκτητο κώδικα και θα γίνουν αντικείμενο αιτημάτων από τις επιχειρηματικές εταιρείες να σταματήσουν τις παράνομες δραστηριότητες.
Μόλις ο O’Brien ανέφερε τον παράγοντα τρολ, οι τρίχες στο λαιμό μου σηκώθηκαν. Θα είναι πολύ, πολύ ακατάστατο.
Ο Καναδός δικηγόρος Robert Piasentin, συνεργάτης στην ομάδα τεχνολογίας στην καναδική δικηγορική εταιρεία McMillan LLP, σημειώνει επίσης ότι τα chatbots θα μπορούσαν να εκπαιδευτούν για να εργάζονται σε ανοιχτού κώδικα και νομικές πηγές, καθώς και σε έργα που προστατεύονται από πνευματικά δικαιώματα. Όλα αυτά τα δεδομένα εκπαίδευσης μπορεί να περιλαμβάνουν ελαττωματικά ή μεροληπτικά δεδομένα (ή αλγόριθμους) καθώς και εταιρικά δεδομένα.
Επίσης: Ο ερευνητής τεχνητής νοημοσύνης Gary Marcus υποστηρίζει σθεναρά τη δημιουργία μιας υπηρεσίας για τη ρύθμιση της τεχνητής νοημοσύνης.
Ο Piasentin εξηγεί: «Εάν η τεχνητή νοημοσύνη χρησιμοποιεί λανθασμένες, ανεπαρκείς ή μεροληπτικές πληροφορίες, τα αποτελέσματα του εργαλείου τεχνητής νοημοσύνης μπορεί να προκαλέσουν μια ποικιλία πιθανών αξιώσεων, ανάλογα με τη φύση της πιθανής ζημίας ή ζημίας που μπορεί να έχουν προκαλέσει αυτά τα αποτελέσματα ( άμεσα ή έμμεσα). έμμεσα).»
Ακολουθεί μια άλλη σκέψη: Μερικοί θα προσπαθήσουν να διαφθείρουν τα σώματα μάθησης (τις πηγές γνώσης που χρησιμοποιούν τα AI για να παρέχουν τα αποτελέσματά τους). Ένα από τα πράγματα που κάνουν οι άνθρωποι είναι να βρίσκουν τρόπους να παίζουν το σύστημα. Έτσι, όχι μόνο θα υπάρχουν στρατιές νομικών τρολ που θα προσπαθούν να βρουν άτομα για μήνυση, αλλά χάκερ, εγκληματίες, αδίστακτα κράτη, μαθητές γυμνασίου και τρελοί θα προσπαθούν όλοι να τροφοδοτήσουν λανθασμένα δεδομένα σε κάθε τεχνητή νοημοσύνη που μπορούν να βρουν. είτε λόγω του lulz είτε για πολύ πιο πρόστυχους λόγους.
Ίσως δεν πρέπει να εστιάζουμε πολύ στη σκοτεινή πλευρά.
Ποιος φταίει;
Ωστόσο, κανένας από τους δικηγόρους δεν συζήτησε ποιος φταίει εάν ο κώδικας που δημιουργείται από την τεχνητή νοημοσύνη οδηγεί σε κάποιο καταστροφικό αποτέλεσμα.
Για παράδειγμα: η εταιρεία που παρέχει το προϊόν έχει κάποια ευθύνη, για παράδειγμα, για την επιλογή μιας βιβλιοθήκης που έχει γνωστά ελαττώματα. Εάν ένα προϊόν αποστέλλεται με μια βιβλιοθήκη που έχει γνωστά τρωτά σημεία και αυτό το προϊόν προκαλεί ένα περιστατικό που οδηγεί σε σημαντική ζημιά, ποιος είναι υπεύθυνος για αυτήν την αποτυχία; Είναι ο κατασκευαστής του προϊόντος, ο προγραμματιστής της βιβλιοθήκης ή η εταιρεία που επέλεξε το προϊόν;
Συνήθως είναι και τα τρία.
Επίσης: Ο τελευταίος αμφισβητίας του ChatGPT: Ανώτατο Δικαστήριο
Τώρα προσθέστε τον κώδικα AI στη μίξη. Προφανώς, το μεγαλύτερο μέρος της ευθύνης πέφτει στους ώμους του προγραμματιστή που αποφασίζει να χρησιμοποιήσει τον κώδικα που δημιουργείται από το AI. Εξάλλου, είναι γνωστό ότι ο κώδικας μπορεί να μην λειτουργεί και πρέπει να ελεγχθεί διεξοδικά.
Οι ενάγοντες σε μια συνολική δίκη θα κυνηγήσουν επίσης τις εταιρείες που κατασκευάζουν την τεχνητή νοημοσύνη, ακόμη και τους οργανισμούς από τους οποίους ελήφθη το περιεχόμενο για την εκπαίδευση αυτών των AI (ακόμα και αν αυτό έγινε χωρίς άδεια);
Όπως μου είπε κάθε δικηγόρος, υπάρχει ακόμη πολύ λίγη νομολογία. Δεν θα μάθουμε πραγματικά τις απαντήσεις έως ότου κάτι πάει στραβά, τα μέρη καταλήξουν στο δικαστήριο και η υπόθεση εκδικαστεί ενδελεχώς.
Είμαστε σε αχαρτογράφητα νερά εδώ. Η καλύτερη συμβουλή μου σε αυτό το σημείο είναι να δοκιμάσετε διεξοδικά τον κωδικό σας. Δοκιμάστε, δοκιμάστε και μετά δοκιμάστε ξανά.
Μπορείτε να παρακολουθείτε τις καθημερινές ενημερώσεις του έργου μου στα κοινωνικά δίκτυα. Φροντίστε να με ακολουθήσετε στο Twitter στο @DavidGewirtzστο Facebook στο Facebook.com/DavidGewirtz, στο Instagram στο Instagram.com/DavidGewirtz και στο YouTube στο YouTube.com/DavidGewirtzTV.