
Οι εγκληματίες του κυβερνοχώρου είναι όπλα τεχνητής νοημοσύνης (AI) σε κάθε στάδιο της επίθεσης. Μεγάλη γλωσσικά μοντέλα (LLMS) Kraft υπερ-προσωπικά ηλεκτρονικά μηνύματα ηλεκτρονικού ψαρέματος, καθαρισμός των προφίλ των στόχων κοινωνικών δικτύων και των επαγγελματικών δικτύων. Τα γενετικά δίκτυα αντιπαράθεσης (GAN) παράγουν βαθιούς ήχους και βίντεο για την παράκαμψη πολυπαραγοντικού ελέγχου ταυτότητας. Τα αυτοματοποιημένα εργαλεία, όπως το WormGPT, επιτρέπουν σε σενάρια σεναρίων να εκτοξεύουν πολυμορφικό κακόβουλο λογισμικό, το οποίο αναπτύσσεται για να αποφύγει την ανίχνευση με βάση την υπογραφή.
Αυτές οι επιθέσεις στον κυβερνοχώρο δεν είναι επίσης κερδοσκοπικές. Οι οργανισμοί που δεν μπορούν να αναπτύξουν τις στρατηγικές ασφαλείας τους διατρέχουν τον κίνδυνο να είναι γεμάτοι με υπερυτελική κυβερνοχώρο-σε 2025 και επακόλουθη.
Επίσης: Θέλετε να κερδίσετε στην εποχή του AI; Μπορείτε είτε να το δημιουργήσετε είτε να δημιουργήσετε την επιχείρησή σας μαζί σας
Για να κατανοήσουμε καλύτερα τον τρόπο με τον οποίο το AI επηρεάζει την ασφάλεια της επιχείρησης, μίλησα με τον Bradon Rogers, το SVP στον τομέα της ασφάλειας της Intel και τον βετεράνο της επιχείρησης σχετικά με αυτή τη νέα εποχή της ψηφιακής ασφάλειας, την έγκαιρη ανίχνευση των απειλών και τον τρόπο με τον οποίο μπορείτε να προετοιμάσετε την ομάδα σας για επιθέσεις με υποστήριξη AI. Αλλά πρώτα, μερικά από τα υπόβαθρα του τι να περιμένουν.
Γιατί οι απειλές της ασφάλειας στον κυβερνοχώρο του AI είναι διαφορετικά
Το AI παρέχει επιβλαβείς ηθοποιούς με σύνθετα εργαλεία που κάνουν τις επιθέσεις στον κυβερνοχώρο πιο ακριβείς, πειστικές και δύσκολες ανίχνευση. Για παράδειγμα, τα σύγχρονα γενετικά συστήματα του AI μπορούν να αναλύσουν εκτεταμένα σύνολα προσωπικών πληροφοριών, εταιρικών επικοινωνιών και δραστηριότητας σε κοινωνικά δίκτυα για τη δημιουργία εκστρατειών ηλεκτρονικού ψαρέματος που μιμούνται πειστικά αξιόπιστες επαφές και νομικές οργανώσεις. Αυτή η δυνατότητα σε συνδυασμό με αυτόματο κακόβουλο λογισμικό, το οποίο προσαρμόζεται σε προστατευτικά μέτρα σε πραγματικό χρόνο, αύξησε σημαντικά τόσο την κλίμακα όσο και την επιτυχία των επιθέσεων.
Η τεχνολογία Deepfake επιτρέπει στους επιτιθέμενους να παράγουν πειστικό περιεχόμενο βίντεο και ήχου, διευκολύνοντας τα πάντα: από απάτη με εκτελεστική απάτη σε μεγάλες εκστρατείες παραπληροφόρησης. Πρόσφατα περιστατικά περιλαμβάνουν κλοπή 25 εκατομμυρίων δολαρίων από μια εταιρεία που βρίσκεται στο Χονγκ Κονγκ, μέσω των βίντεο του Deepfake και πολυάριθμες περιπτώσεις, όταν τα φωνητικά κλιπ που χρησιμοποιούνται από την AI χρησιμοποιούνται για να εξαπατήσουν τους υπαλλήλους και τα μέλη της οικογένειας στη μεταφορά κεφαλαίων σε εγκληματίες.
Επίσης: Τα περισσότερα εργαλεία για την κλωνοποίηση της φωνής της τεχνητής νοημοσύνης δεν είναι ασφαλή από τους απατεώνες, βρίσκονται οι καταναλωτικές αναφορές
Οι αυτόματες επιθέσεις με υποστήριξη AI με AI οδήγησαν στις καινοτομίες των επιθέσεων “εγκατάστασης και εγκαταστάσεων”, οι οποίες μελετούν συνεχώς τα τρωτά σημεία, προσαρμόζονται στα προστατευτικά μέτρα και χρησιμοποιούν αδυναμίες χωρίς ανθρώπινη παρέμβαση. Ένα παράδειγμα είναι μια παραβίαση ενός σημαντικού προμηθευτή υπηρεσιών cloud του 2024 AWS. Το κακόβουλο λογισμικό, με βάση το AI, εμφανίζεται συστηματικά από την αρχιτεκτονική δικτύου, καθορίζει την πιθανή ευπάθεια και εκπληρώνει μια πολύπλοκη αλυσίδα επίθεσης που έθεσε σε κίνδυνο χιλιάδες λογαριασμούς πελατών.
Αυτά τα περιστατικά υπογραμμίζουν τον τρόπο με τον οποίο το AI όχι μόνο αυξάνει την υπάρχουσα κυβερνοχώρο, αλλά δημιουργεί επίσης εντελώς νέες κατηγορίες κινδύνων ασφαλείας. Εδώ είναι οι προτάσεις του Rogers σχετικά με τον τρόπο επίλυσης του προβλήματος.
1. Εφαρμογή της αρχιτεκτονικής μηδενικών αξιοθέατων
Η παραδοσιακή περίμετρο της ασφάλειας δεν είναι πλέον αρκετή μπροστά σε απειλές Α-λαϊνών. Η αρχιτεκτονική με μηδενική δόση λειτουργεί με την αρχή της “ποτέ να μην εμπιστεύεστε, να ελέγχετε πάντα”, εγγυώντας ότι κάθε χρήστης, συσκευή και εφαρμογή θα πιστοποιηθεί και θα εξουσιοδοτηθεί πριν από την πρόσβαση σε πόρους. Αυτή η προσέγγιση ελαχιστοποιεί τον κίνδυνο μη εξουσιοδοτημένης πρόσβασης, ακόμη και αν ο εισβολέας καταφέρνει να σπάσει το δίκτυο.
“Οι επιχειρήσεις θα πρέπει να ελέγχουν κάθε χρήστη, συσκευές και εφαρμογές, συμπεριλαμβανομένου του AI, προτού αποκτήσουν πρόσβαση σε κρίσιμα δεδομένα ή λειτουργίες”, υπογραμμίζει ο Rogers, σημειώνοντας ότι αυτή η προσέγγιση είναι “η καλύτερη πορεία των ενεργειών της οργάνωσης”. Συνεχής έλεγχος της ταυτότητας και εξασφάλιση αυστηρών μέτρων ελέγχου πρόσβασης, οι επιχειρήσεις μπορούν να μειώσουν την επιφάνεια της επίθεσης και να περιορίσουν πιθανές ζημιές από συμβιβασμένους λογαριασμούς.
Επίσης: Αυτό το νέο πρότυπο AI μετρά πόσα μοντέλα βρίσκονται
Ενώ η AI δημιουργεί προβλήματα, προσφέρει επίσης ισχυρά εργαλεία προστασίας. Οι λύσεις ασφαλείας που ελέγχονται από το AI μπορούν να αναλύσουν τεράστιες ποσότητες δεδομένων σε πραγματικό χρόνο, προσδιορίζοντας ανωμαλίες και πιθανές απειλές που μπορούν να χάσουν τις παραδοσιακές μεθόδους. Αυτά τα συστήματα μπορούν να προσαρμοστούν στην εμφάνιση μοντέλων επίθεσης, παρέχοντας δυναμική προστασία από επιθέσεις στον κυβερνοχώρο με την AI.
Ο Rogers προσθέτει ότι με την τεχνητή νοημοσύνη, όπως τα συστήματα cyber-turnover, δεν πρέπει ποτέ να θεωρείται ενσωματωμένη λειτουργία. “Τώρα ήρθε η ώρα για την CISO και τους ηγέτες ασφαλείας να δημιουργήσουν συστήματα με AI από το μηδέν”, λέει. Ενσωματώνοντας το AI στην υποδομή ασφαλείας τους, οι οργανισμοί μπορούν να αυξήσουν την ικανότητά τους να ανιχνεύουν γρήγορα και να ανταποκρίνονται σε περιστατικά, μειώνοντας το παράθυρο ευκαιριών για επιτιθέμενους.
2. Για να εκπαιδεύσει και να εκπαιδεύσει τους υπαλλήλους σε απειλές που βασίζονται σε τεχνητή νοημοσύνη
Οι οργανισμοί μπορούν να μειώσουν τον κίνδυνο εσωτερικών τρωτών σημείων, συμβάλλοντας στον πολιτισμό της ευαισθητοποίησης της ασφάλειας και παρέχοντας σαφείς συστάσεις για τη χρήση εργαλείων AI. Οι άνθρωποι είναι πολύπλοκες, τόσο απλές λύσεις είναι συχνά οι καλύτερες.
“Δεν πρόκειται μόνο για το μαλάκωμα των εξωτερικών επιθέσεων. Παρέχει επίσης περιφράξεις για τους υπαλλήλους που χρησιμοποιούν το AI για το δικό τους “cheat -code for performance”, λέει ο Rogers.
Επίσης: AI Duckduckgo Bewesome με έναν ακόμη τρόπο – και αυτό είναι ελεύθερο να το χρησιμοποιήσετε
Το ανθρώπινο λάθος παραμένει σημαντικό στην ασφάλεια στον κυβερνοχώρο. Καθώς οι επιθέσεις του ηλεκτρονικού ψαρέματος και της κοινωνικής μηχανικής γίνονται πιο πειστικές, η κατάρτιση των εργαζομένων σχετικά με αυτές τις αναπτυσσόμενες απειλές είναι ακόμη πιο σημαντική. Οι τακτικές εκπαιδευτικές συνεδρίες μπορούν να βοηθήσουν τους υπαλλήλους να αναγνωρίσουν ύποπτες ενέργειες, όπως απροσδόκητα μηνύματα ηλεκτρονικού ταχυδρομείου ή αιτήματα που αποκλίνουν από τις συνήθεις διαδικασίες.
3. Παρακολούθηση και ρύθμιση της χρήσης του εργαζομένου AI
Η διαθεσιμότητα των τεχνολογιών AI έχει οδηγήσει σε ευρέως διαδεδομένη σε διάφορες επιχειρηματικές λειτουργίες. Παρόλα αυτά, η μη εξουσιοδοτημένη ή ανεπίσημη χρήση του AI, που συχνά ονομάζεται “σκιά AI”, μπορεί να αντιπροσωπεύει σημαντικούς κινδύνους ασφαλείας. Οι εργαζόμενοι μπορούν να χρησιμοποιήσουν ακούσια εφαρμογές τεχνητής νοημοσύνης στις οποίες δεν υπάρχουν κατάλληλα μέτρα ασφαλείας, γεγονός που οδηγεί σε πιθανές διαρροές δεδομένων ή ζητήματα συμμόρφωσης.
“Δεν μπορούμε να έχουμε ελεύθερα τα εταιρικά δεδομένα ελεύθερα σε ολόκληρο τον τόπο στα μη εξουσιοδοτημένα μέσα ενημέρωσης, οπότε πρέπει να επιτευχθεί η ισορροπία”, εξηγεί ο Rogers. Η εφαρμογή πολιτικών που ρυθμίζουν τα εργαλεία AI, διεξάγουν τακτικούς ελέγχους και διασφαλίζουν ότι όλες οι εφαρμογές AI συμμορφώνονται με τα πρότυπα ασφαλείας είναι απαραίτητα για να μαλακώσουν αυτούς τους κινδύνους.
4. Συνεργασία με εμπειρογνώμονες AI και Cybersecurity
Η πολυπλοκότητα των απειλών που βασίζονται στην ΑΙ απαιτεί συνεργασία με εμπειρογνώμονες που ειδικεύονται στην ΑΙ και την ασφάλεια στον κυβερνοχώρο. Η συνεργασία με τις εξωτερικές επιχειρήσεις μπορεί να παρέχει στους οργανισμούς πρόσβαση στην τελευταία πνεύμα απειλής, τις προηγμένες προστατευτικές τεχνολογίες και τις εξειδικευμένες δεξιότητες που ενδέχεται να μην είναι διαθέσιμες.
Επίσης: Πώς οι Cisco, Langchain και Galileo επιδιώκουν να υποστηρίξουν την έκρηξη Cambrian των παραγόντων τεχνητής νοημοσύνης “
Οι επιθέσεις με το AI απαιτούν πολύπλοκες αντισταθμιστές, οι οποίες συχνά στερούνται παραδοσιακών εργαλείων ασφαλείας. Οι πλατφόρμες ανίχνευσης απειλών, ενισχυμένα AI, ασφαλή προγράμματα περιήγησης και στοιχεία ελέγχου της συμπεριφοράς χρήστη μηδενικής πρόσβασης μηδενικής πρόσβασης, βρίσκουν ανωμαλίες και αποτρέπουν την μη εξουσιοδοτημένη πρόσβαση.
Ο Rogers υπογραμμίζει ότι οι καινοτόμες αποφάσεις για την επιχείρηση “είναι ο σύνδεσμος που λείπει στο πλαίσιο της μηδενικής ασφάλειας εμπιστοσύνης. [These tools] Παρέχετε βαθιά, λεπτομερή εργαλεία ασφαλείας που προστατεύουν ομαλά οποιαδήποτε εφαρμογή ή πόρο σε κρατικά και ιδιωτικά δίκτυα.
Αυτά τα εργαλεία χρησιμοποιούν μηχανική μάθηση για συνεχή παρακολούθηση της δραστηριότητας του δικτύου, χώρους ύποπτων μοτίβων και αυτοματοποίηση της αντίδρασης συμβάντων, μειώνοντας τον κίνδυνο επιθέσεων που παράγονται AI, διεισδύοντας σε εταιρικά συστήματα.