Η αυτονομία του μελλοντικού εξοπλισμού ελέγχου ταραχών έχει μετακινηθεί από τη "βοήθεια εργαλείων" στη "συνεργασία εργασιών", έχοντας αυτόνομες δυνατότητες αντίληψης, κρίσης και απόκρισης σε περιορισμένα περιβάλλοντα. Ωστόσο, η βασική λήψη-απόφασης θα διατηρήσει το μοντέλο "ανθρώπινο-στο--βρόχο" για να διασφαλιστεί ο απόλυτος έλεγχος στη χρήση βίας.
Με γνώμονα τις τεχνολογίες AI και ρομποτικής, η αυτονομία του εξοπλισμού ελέγχου ταραχών αντικατοπτρίζεται κυρίως στις ακόλουθες τρεις πτυχές:
Αυτόνομη αντίληψη και περιβαλλοντική μοντελοποίηση: Τα σύγχρονα έξυπνα συστήματα ελέγχου ταραχών μπορούν να εξοπλιστούν με πολυ-μονάδες σύντηξης αισθητήρων (όπως θερμική απεικόνιση, lidar και συστοιχίες μικροφώνων) για την επίτευξη σάρωσης και χαρτογράφησης πολύπλοκων περιβαλλόντων σε πραγματικό-χρόνο. Για παράδειγμα, ορισμένα ρομπότ ελέγχου ταραχών μπορούν αυτόνομα να εντοπίζουν εμπόδια, αλλαγές στην πυκνότητα του πλήθους και μη φυσιολογικά πρότυπα συμπεριφοράς και μπορούν να λειτουργούν σταθερά σε περιβάλλοντα πυκνού καπνού ή χαμηλού{3}}φωτισμού.
Περιορισμένη αυτόνομη απόφαση-Λήψη και συμπεριφορά συμπεριφοράς: Με τη βοήθεια υπολογιστών αιχμής και ελαφρών μοντέλων τεχνητής νοημοσύνης, ο εξοπλισμός μπορεί να εκτελεί αυτόνομα συγκεκριμένες εργασίες εντός προκαθορισμένων κανόνων. Για παράδειγμα, τα ρομπότ περιπολίας, αφού εντοπίσουν βίαιες ενέργειες (όπως κοπή ή φόρτιση) μέσω αλγορίθμων αναγνώρισης συμπεριφοράς, μπορούν να ενεργοποιούν αυτόματα συναγερμούς, να παρακολουθούν στόχους και να αναπτύσσουν μη-μη θανατηφόρα πυρομαχικά. Τα drones, κατά την ανίχνευση εναέριων απειλών (όπως αγωνιστικά drones), μπορούν αυτόνομα να απογειωθούν και να εφαρμόσουν ηλεκτρονικό εμπλοκή.
Ανθρώπινη-Συνεργασία μηχανής σε μια αποστολή κλειστού-βρόχου
Επί του παρόντος, ο εξαιρετικά αυτόνομος εξοπλισμός υιοθετεί γενικά μια αρχιτεκτονική "άνθρωπος-στο--βρόχο", όπου οι ανθρώπινοι χειριστές θέτουν στόχους αποστολής και όρια ασφαλείας, ενώ το σύστημα είναι υπεύθυνο για τον σχεδιασμό διαδρομής, το κλείδωμα στόχων και τη βελτιστοποίηση εκτέλεσης. Για παράδειγμα, το ρομπότ "Ball Police Officer" που αναπτύχθηκε σε ορισμένες πόλεις της Κίνας μπορεί να περιπολεί αυτόνομα υπό τεχνητή νοημοσύνη, αλλά μόλις εντοπιστεί στόχος υψηλού-κινδύνου, απαιτείται επιβεβαίωση από το οπαδικό- προσωπικό πριν αναληφθούν περαιτέρω ενέργειες.
Αξίζει να σημειωθεί ότι παρόλο που είναι τεχνικά δυνατές οι πλήρως αυτόνομες απαντήσεις "εκτός του ανθρώπινου βρόχου", οι αυτόνομες ενέργειες θανατηφόρων ή υψηλής{0}βίας εξακολουθούν να είναι αυστηρά περιορισμένες λόγω ηθικών και νομικών κριτηρίων. Η διεθνής κοινότητα ζητά γενικά να διατηρηθεί ο «νοηματικός ανθρώπινος έλεγχος» (MHC) για να αποτραπούν οι λανθασμένες αλγοριθμικές εκτιμήσεις από το να οδηγήσουν σε ανεξέλεγκτες συνέπειες.




