Σάββατο , 20 Απριλίου 2024

Guardian: Μπορεί η αστυνόμευση να ανατεθεί στα ρομπότ της τεχνητής νοημοσύνης;- Τι λένε οι ειδικοί

Μπορεί η αστυνόμευση και η εξιχνίαση εγκλημάτων να ανατεθεί σε ρομπότ και η τεχνητή νοημοσύνη να συμβάλει σε αυτό; Το ερώτημα έχει αρχίσει να απασχολεί έντονα τους ειδικούς, όπως αναφέρει σε έρευνά του ο βρετανικός Guardian.

Παράδειγμα: Το συμβούλιο εποπτών του Σαν Φραντσίσκο ψήφισε πρόσφατα να επιτρέψει στην αστυνομία να αναπτύξει ρομπότ εξοπλισμένα με θανατηφόρα εκρηκτικά – πριν υποχωρήσει αρκετές εβδομάδες αργότερα.
Στην Αμερική, η ψηφοφορία πυροδότησε μια έντονη συζήτηση για τη στρατιωτικοποίηση της αστυνομίας, αλλά εγείρει θεμελιώδη ερωτήματα για όλους μας σχετικά με τον ρόλο των ρομπότ και της τεχνητής νοημοσύνης στην καταπολέμηση του εγκλήματος, πώς λαμβάνονται οι αποφάσεις αστυνόμευσης και, πράγματι, ο ίδιος ο σκοπός του εγκληματία μας. συστήματα δικαιοσύνης. Στο Ηνωμένο Βασίλειο, οι αξιωματικοί λειτουργούν σύμφωνα με την αρχή της «αστυνόμευσης με συναίνεση» και όχι με τη βία. Ωστόσο, σύμφωνα με την Έρευνα Εγκλήματος του 2020 για την Αγγλία και την Ουαλία, η εμπιστοσύνη του κοινού στην αστυνομία έχει πέσει από 62% το 2017 σε 55%. Μια πρόσφατη δημοσκόπησηρώτησε τους Λονδρέζους αν το Met ήταν θεσμικά σεξιστικό και ρατσιστικό. Σχεδόν τα δύο τρίτα απάντησαν είτε «πιθανώς» ή «σίγουρα».

Αυτό ίσως δεν προκαλεί έκπληξη, δεδομένων των υψηλού προφίλ υποθέσεων εγκλημάτων από αστυνομικούς όπως ο Wayne Couzens , ο οποίος δολοφόνησε τη Sarah Everard και ο David Carrick , ο οποίος πρόσφατα ομολόγησε την ενοχή του για 49 αδικήματα, συμπεριλαμβανομένου του βιασμού και της σεξουαλικής επίθεσης.

Ο νέος επίτροπος, Mark Rowley, είπε ότι «πρέπει να προετοιμαστούμε για πιο οδυνηρές ιστορίες» και προειδοποίησε ότι δύο ή τρεις αστυνομικοί την εβδομάδα αναμένεται να εμφανίζονται στο δικαστήριο για ποινικές κατηγορίες τους επόμενους μήνες. Τι γίνεται όμως αν το πρόβλημα με την αστυνόμευση ξεπερνά τα λεγόμενα «σάπια μήλα» (rotten apples), ακόμη και πέρα ​​από την κουλτούρα και τις πολιτικές που επιτρέπουν στις διακρίσεις να ανθίζουν ανεξέλεγκτα; Τι γίνεται αν είναι επίσης ενσωματωμένο στον τρόπο με τον οποίο τα ανθρώπινα όντα λαμβάνουν πραγματικά αποφάσεις;

Η αστυνόμευση απαιτεί εκατοντάδες κρίσεις να γίνονται καθημερινά, συχνά υπό συνθήκες ακραίας πίεσης και αβεβαιότητας: ποιος και πού να αστυνομεύσει, ποιες υποθέσεις και θύματα να δοθεί προτεραιότητα, ποιος να πιστέψει και ποιες γραμμές έρευνας να ακολουθήσει. Όπως εξηγεί ο Malcolm Gladwell στο Blink , αυτές οι γρήγορες αποφάσεις – που συχνά περιγράφονται ως «προαισθήσεις» – βασίζονται στις ατομικές κοινωνικές και συναισθηματικές εμπειρίες μας, αλλά και από τις προκαταλήψεις που όλοι έχουμε εσωτερικεύσει από την ευρύτερη κοινωνία, όπως ο ρατσισμός, ο σεξισμός, η ομοφοβία και η τρανσφοβία.

Η τεχνητή νοημοσύνη στην αστυνόμευση;
Θα μπορούσε επομένως η τεχνητή νοημοσύνη να προσφέρει έναν δικαιότερο και πιο αποτελεσματικό δρόμο για την αστυνόμευση του 21ου αιώνα; Υπάρχουν σε γενικές γραμμές δύο τύποι τεχνητής νοημοσύνης: η «στενή τεχνητή νοημοσύνη», η οποία μπορεί να εκτελέσει συγκεκριμένες εργασίες, όπως η αναγνώριση εικόνων, και η «τεχνητή νοημοσύνη γενικού σκοπού», που κάνει πολύ πιο περίπλοκες κρίσεις και αποφάσεις που εκτείνονται σε όλα τα είδη τομέων. Η τεχνητή νοημοσύνη γενικού σκοπού βασίζεται στη βαθιά μάθηση – την απορρόφηση τεράστιων ποσοτήτων δεδομένων και τη χρήση τους για συνεχή προσαρμογή και βελτίωση της απόδοσης και έχει τη δυνατότητα να αναλάβει όλο και περισσότερα από τα καθήκοντα που κάνουν οι άνθρωποι στην εργασία. Το ChatGPT, ένα υπερσύγχρονο μοντέλο επεξεργασίας γλώσσας που έχει τη δυνατότητα να γράφει ερευνητικές εργασίες, άρθρα και ακόμη και ποιήματα μέσα σε λίγα δευτερόλεπτα, είναι το πιο πρόσφατο παράδειγμα για να τραβήξει τη φαντασία του κοινού.

Η τεχνητή νοημοσύνη μπορεί ήδη να αναζητήσει εκατομμύρια φωτογραφίες και να αναλύσει τεράστιες ποσότητες αναρτήσεων στα μέσα κοινωνικής δικτύωσης προκειμένου να εντοπίσει και να εντοπίσει πιθανούς υπόπτους. Με βάση άλλα είδη δεδομένων, θα μπορούσε επίσης να βοηθήσει στην πρόβλεψη των χρόνων και των τόπων όπου είναι πιο πιθανό να συμβεί το έγκλημα. Σε συγκεκριμένες περιπτώσεις, θα μπορούσε να ελέγξει υποθέσεις και να φιλτράρει λάθη, επιτρέποντας στους αξιωματικούς να επικεντρωθούν στις γραμμές έρευνας που δικαιολογούνται περισσότερο από τα διαθέσιμα στοιχεία.

Γρήγορες, πιο δίκαιες, βασισμένες σε στοιχεία αποφάσεις για ένα κλάσμα του κόστους σίγουρα ακούγονται ελκυστικές, αλλά η πρώιμη έρευνα υποδηλώνει την ανάγκη για προσοχή. Η λεγόμενη «προγνωστική αστυνόμευση» χρησιμοποιεί ιστορικές πληροφορίες για τον εντοπισμό πιθανών μελλοντικών δραστών και θυμάτων, αλλά μελέτες έχουν δείξει ότι τα δεδομένα πηγής για αυτό το είδος μοντελοποίησης μπορεί να είναι γεμάτα προκαταλήψεις, δημιουργώντας, για παράδειγμα, αποτελέσματα που κατηγοριοποιούν τους έγχρωμους ως δυσανάλογα». επικίνδυνο» ή «άνομο». Μια μελέτη της Rand Corporation του 2016 κατέληξε στο συμπέρασμα ότι ο «χάρτης θερμότητας» του Σικάγο για το αναμενόμενο βίαιο έγκλημα απέτυχε να μειώσει τη βία από όπλα, αλλά οδήγησε σε περισσότερες συλλήψεις σε γειτονιές με χαμηλό εισόδημα και φυλετικές διαφορές.

Πιο βαθιά, η τεχνητή νοημοσύνη έχει σχεδιαστεί για να επιτυγχάνει τους στόχους που της θέτουμε. Έτσι, όπως προειδοποίησε ο καθηγητής Stuart Russell στις Διαλέξεις του Reith το 2021 , οποιεσδήποτε εργασίες πρέπει να καθοριστούν προσεκτικά σε ένα πλαίσιο που ωφελεί την ανθρωπότητα μήπως, όπως στο The Sorcerer’s Apprentice, η εντολή να φέρουμε νερό έχει ως αποτέλεσμα μια ασταμάτητη πλημμύρα.

Τελικά μπορεί να μάθουμε να σχεδιάζουμε μεροληψία και να αποφεύγουμε τις διεστραμμένες συνέπειες, αλλά θα είναι αυτό αρκετό; Όπως έχει παρατηρήσει ο καθηγητής Batya Friedman της σχολής πληροφοριών του Πανεπιστημίου της Ουάσιγκτον: «Η δικαιοσύνη είναι κάτι περισσότερο από μια σωστή απόφαση. Είναι μια διαδικασία ανθρώπινων όντων να δίνουν μαρτυρία ο ένας για τον άλλον, να αναγνωρίζουν ο ένας τον άλλον, να λογοδοτούν ο ένας για τον άλλον, να αποκαθιστούν ο ένας τον άλλον».

Αντικατάσταση αστυνομικών από υπολογιστές;
Αντί να συζητάμε τι θα μπορεί ή δεν θα μπορεί να κάνει η τεχνητή νοημοσύνη στο μέλλον, θα πρέπει να ρωτάμε τι θέλουμε από το ποινικό και δικαστικό μας σύστημα και πώς η τεχνητή νοημοσύνη θα μπορούσε να μας βοηθήσει να το πετύχουμε. Οι φιλοδοξίες μας είναι απίθανο να υλοποιηθούν απλώς με την αντικατάσταση των αξιωματικών με υπολογιστές – αλλά σκεφτείτε τι μπορεί να επιτευχθεί σε μια ομάδα ανθρώπων-μηχανών, όπου ο καθένας μαθαίνει από τον άλλο και προσθέτει αξία στον άλλο. Τι θα γινόταν αν υποβάλλαμε τα ανθρώπινα όντα στον ίδιο έλεγχο που δικαίως θέτουμε στην τεχνητή νοημοσύνη, εκθέτοντας τις προκαταλήψεις και τις υποθέσεις μας σε συνεχή και εποικοδομητική πρόκληση; Τι θα γινόταν αν η τεχνητή νοημοσύνη μπορούσε να βοηθήσει με επαναλαμβανόμενες και απαιτητικές εργασίες, δίνοντας στους αστυνομικούς ό,τι ο καθηγητής Eric Topol, γράφοντας για την επανάσταση της τεχνητής νοημοσύνης στην ιατρική, έχει αποκαλέσει το «δώρο του χρόνου»; Αυτό θα τους επέτρεπε να συμπεριφέρονται τόσο στα θύματα όσο και στους κατηγορούμενους με την αξιοπρέπεια που μόνο οι άνθρωποι μπορούν να ενσαρκώσουν και που αξίζουν όλα τα μέλη της κοινωνίας.

libre.gr, φωτο αρχείου

Shares