«Τεχνητή Δικαιοσύνη; Προκλήσεις και Δυνατότητες της Τεχνητής Νοημοσύνης κατά την Απονομή της (Ποινικής) Δικαιοσύνης»
Αφιέρωμα στο συλλογικό τόμο της σειράς «Ποινικά» με τίτλο «Τεχνητή Δικαιοσύνη; Προκλήσεις και Δυνατότητες της Τεχνητής Νοημοσύνης κατά την Απονομή της (Ποινικής) Δικαιοσύνης»
Ακολουθεί η παρουσίαση της εκδήλωσης από τον επικεφαλή της παράταξης “Με Το Δικηγόρο” , Δημήτρη Αναστασόπουλο.
Με επιμέλεια των Ιωάννη Σαρμά και Νέστορα Κουράκη πραγματοποιήθηκε από τις εκδόσεις Αντ. Ν. Σάκκουλα και την Ελληνική Εταιρεία Εγκληματολογίας στις 19 Μαρτίου 2025 στην Αίθουσα Δρακοπούλου του Πανεπιστημίου Αθηνών εκδήλωση με την ευκαιρία της έκδοσης 100 και πλέον τόμων της επιστημονικής σειράς «Ποινικά» και ειδικότερα του συλλογικού τόμου «Τεχνητή Δικαιοσύνη; Προκλήσεις και Δυνατότητες της Τεχνητής Νοημοσύνης κατά την Απονομή της (Ποινικής) Δικαιοσύνης», όπου συζητήθηκε το μείζον και ιδιαίτερα επίκαιρο ζήτημα της τεχνητής νοημοσύνης στην απονομή δικαιοσύνης.
Στη συζήτηση, που πραγματοποιήθηκε, συμμετείχαν ως ομιλητές διακεκριμένοι και άριστα καταρτισμένοι νομικοί που διαφώτισαν τους παρευρισκόμενους για τον κρίσιμο ρόλο που δύναται να διαδραματίσει η τεχνητή νοημοσύνη στην απονομή της δικαιοσύνης, επισημαίνοντας ιδίως τις ευκαιρίας αλλά και τους κινδύνους που ενέχει η εισαγωγή της δικαιοσύνης στην περίοδο της λεγόμενης «Τέταρτης Βιομηχανικής Επανάστασης», της οποίας βασικός μοχλός θεωρείται η τεχνητή νοημοσύνη. Ειδικότερα, την εκδήλωση τίμησαν με την παρουσία τους ως ομιλητές οι κύριοι Λεωνίδας Κοτσαλής (Ομ. Καθηγητής Ποινικών Επιστημών Πανεπιστημίου Αθηνών, Καθηγητής Ευρωπαϊκού Πανεπιστημίου Κύπρου, Διευθυντής της Σειράς «Ποινικά»), Νέστωρ Κουράκης (Ομ. Καθηγητής Ποινικών Επιστημών, Καθηγητής Πανεπιστημίου Λευκωσίας, τακτικό Μέλος Ευρωπαϊκής Ακαδημίας Επιστημών και Τεχνών), Εμμανουήλ Γιαννακουδάκης (Ομ. Καθηγητής Πληροφορικής Οικονομικού Πανεπιστημίου Αθηνών), Ιωάννης Σαρμάς (πρ. Πρωθυπουργός, Επίτιμος Πρόεδρος Ελεγκτικού Συνεδρίου, Επίτιμος Διδάκτορας ΑΠΘ, Παντείου Πανεπιστημίου και Διεθνούς Πανεπιστημίου Ελλάδος), καθώς και η Δημοσιογράφος κα. Ιωάννα Μάνδρου υπό την ιδιότητά της ως Συντονίστριας της συζήτησης.
Η εκδήλωση σημείωσε ιδιαίτερα μεγάλη προσέλευση δίνοντας τη δυνατότητα σε κοινό και ομιλητές από κοινού να προβληματιστούν και να διερευνήσουν με τρόπο διαδραστικό τις ιδιαίτερες πτυχές της χρήσης τεχνητής νοημοσύνης στην απονομή δικαιοσύνης. Η επιτυχία της εκδήλωσης αυτής μαρτυρά το αυξανόμενο ενδιαφέρον του νομικού – και όχι μόνο – κόσμου γύρω από ζητήματα σύγχρονων τεχνολογιών, ενώ επίσης συμβάλλει τα μέγιστα στο γόνιμο διάλογο που είναι απαραίτητο να πραγματοποιείται διαρκώς ανάμεσα σε ακαδημαϊκούς, δικηγόρους και εκπροσώπους του δικαστικού κλάδου προκειμένου να εξασφαλιστεί η ομαλή μετάβαση της δικαιοσύνης στην εποχή της τεχνητής νοημοσύνης και η αξιοποίηση αυτού του καινοφανούς εργαλείου με τον ασφαλέστερο και πλέον ωφέλιμο τρόπο για όλους όσους μετέχουν στο σύστημα απονομής δικαιοσύνης.
Τέλος, ο ομότιμος Καθηγητής κος Λ.Κοτσαλής ανέφερε, μεταξύ άλλων, τα κάτωθι:
Η επιστημονική σειρά «Ποινικά» κυκλοφορεί από το 1978 και ιδρύθηκε από τους Αλέξανδρο Μαγκάκη και Νικόλαο Ανδρουλάκη, με στόχο να καλύψει το σύνολο της νομικής επιστήμης. Ο Αλέξανδρος Μαγκάκης υπήρξε μαχητής, διανοούμενος, ευπατρίδης και άφησε το ισχυρό θετικό αποτύπωμα του και ως Υπουργός Δικαιοσύνης, και μάλιστα σε μια ιδιαίτερα δύσκολη εποχή. Ο Νικόλαος Ανδρουλάκης, δε, υπήρξε ρωμαλέος, δωρικός, δογματικός επιστήμονας, που με τις συνεργασίες του εμπλούτισε το ποινικό δόγμα. Στη σειρά «Ποινικά» έχουν εκδοθεί μέχρι σήμερα 101 τόμοι, που αφορούσαν είτε μονογραφίες, είτε διδακτορικές διατριβές, είτε νομικά συγγράμματα Γερμανών ποινικολόγων σε μετάφραση. Πρόκειται για την πιο πλήρη σειρά στο ποινικό δίκαιο με διαρκή εξέλιξη και προσαρμογή της θεματολογίας της στις νέες εξελίξεις στο χώρο της τεχνολογίας και της νομικής επιστήμης.
Ακολουθεί η εισήγηση του κ.Νέστορα Κουράκη, Καθηγητή Ποινικών Επιστημών, Πανεπιστήμια Αθηνών (Ομότιμου) και Λευκωσίας (από το 2014).
Ι. Αποτελεί, ίσως, φράση-κλισέ, αλλά είναι γεγονός ότι, η Τεχνητή Νοημοσύνη έχει αρχίσει να κατακλύζει με αλματώδεις ρυθμούς όλα τα πεδία της ζωής μας και ότι αποτελεί μια πραγματική κοσμοϊστορική επανάσταση, αντίστοιχη με την επινόηση του ατμού, του ηλεκτρισμού, της πυρηνικής ενέργειας και του διαδικτύου. Συνήθως μάλιστα η Τεχνητή Νοημοσύνη θεωρείται ως ο βασικός πλέον μοχλός της εν εξελίξει Τέταρτης Βιομηχανικής Επανάστασης, αλλά και ως προπομπός μιας Πέμπτης, που θα επικεντρωθεί στη συνεργασία ανθρώπου και μηχανής, ίσως, κατά μία άποψη, και μέσω της δημιουργίας ενός Μετανθρώπου (homo sapiens cyborg), όπου στη θέση της βιολογικής μας υπόστασης ενδέχεται να εμφανισθεί ένα νέο υβρίδιο ανθρώπου και μηχανής, ένας οργανισμός που με τη βοήθεια της τεχνολογίας δεν θα αρρωσταίνει και δεν θα περιορίζεται από φυσικές αδυναμίες και ηλικιακή παρακμή.
Τι είναι όμως η Τεχνητή Νοημοσύνη και πώς μπορεί να γίνει αρωγός του ανθρώπου;
Σύμφωνα με τον επίσημο ορισμό της από την Ευρωπαϊκή Ενωση και τον ΟΟΣΑ, η Τεχνητή Νοημοσύνη είναι ένα λογισμικό που μπορεί να παράγει περιεχόμενο, προβλέψεις, συστάσεις ή αποφάσεις επιδραστικές για το περιβάλλον με το οποίο αυτή αλληλεπιδρά.
Ειδικότερα, η Τεχνητή Νοημοσύνη, ιδίως αφότου επινοήθηκε η τελειοποιημένη εφαρμογή της με το όνομα ChatGPT τον Νοέμβριο του 2022, είναι σε θέση όχι μόνο να συγκεντρώνει, να ταξινομεί και να τεκμηριώνει τα διαθέσιμα δεδομένα, όπως γινόταν έως τότε, αλλά, ακόμη, να επεξεργάζεται όλες τις διαθέσιμες πηγές, να παράγει νέο περιεχόμενο και να δίνει στα δεδομένα νέα μορφή, και μάλιστα με δυνατότητα διεξαγωγής διαλόγου (chat) με τον χρήστη. Σημαντικό είναι επίσης ότι η εφαρμογή αυτή μπορεί να αυτοεκπαιδεύεται (self-learning) και άρα να έχει περιθώρια συνεχούς αυτοβελτίωσης, επεκτεινόμενη σε ολοένα και νέα πεδία εφαρμογής.
Ειδικότερα, η εφαρμογή ChatGPT (από τη Mikrosoft), όπως και άλλες αντίστοιχες εφαρμογές μεγάλων γλωσσικών μοντέλων, π.χ. το Gemini (από τη Google) και το κινεζικό DeepSeek, είναι σε θέση:
Να δίνει σε κλάσματα δευτερολέπτου τεκμηριωμένες απαντήσεις επάνω σε οποιοδήποτε ερώτημα και να εμβαθύνει περαιτέρω με απαντήσεις σε νέα ερωτήματα, να συντάσσει ένα συγκροτημένο κείμενο με αρχή, μέση και τέλος, να μεταφράζει κείμενα, να συνθέτει μουσικά κομμάτια, ζωγραφικούς πίνακες ή και φωτογραφικό υλικό, να «διαβάζει» αρχαία ελληνικά κείμενα σε απανθρακωμένο πάπυρο του Ερκολάνο (κοντά στον Βεζούβιο), να παρέχει υπηρεσίες σε ιατρικά ζητήματα όπως για την υποβοηθούμενη αναπαραγωγή, να αποτελεί πλέον τη βασική υποδομή για την κατασκευή οπλικών συστημάτων, αλλά και να δημιουργεί ρομπότ με ανθρώπινη μορφή, όπως το ανθρωποειδές με το όνομα Σοφία, που πρωτοεμφανίσθηκε σε φεστιβάλ του Τέξας το 2016, ομιλεί 20 γλώσσες και μπορεί να δίνει συνεντεύξεις επί παντός επιστητού…
ΙΙ. Υπό τα δεδομένα αυτά καθίσταται προφανές ότι η Τεχνητή Νοημοσύνη μπορεί να παράσχει σημαντική βοήθεια και στο έργο απονομής της Δικαιοσύνης. Ιδίως είναι σε θέση, μεταξύ άλλων:
• Να προβαίνει σε νομική έρευνα για την τεκμηρίωση μιας υπόθεσης με νομοθεσία, νομολογία, επιστημονική βιβλιογραφία, ψηφιακά αρχεία και μητρώα.
• Να συνεπικουρεί τους δικαστές στις διαδικασίες λήψης αποφάσεων, π.χ. με τη σύνταξή ενός προσχεδίου απόφασης.
• Να αναλύει έναν μεγάλο όγκο πληροφοριών.
• Να αυτοματοποιεί σειρά ομοιόμορφων εργασιών και διαδικασιών (robotic process automation).
• Nα τηρεί πρακτικά στα δικαστήρια μέσω φωνοληψίας,
• Να παρέχει πρόσβαση σε πολίτες για νομικές πληροφορίες, π.χ. για την ενδοοικογενειακή βία, μέσω επίσημης πλατφόρμας ή και μέσω ατομικής διαδικτυακής πληροφόρησης.
• Να καθοδηγεί τους πολίτες σε νομικά τους ζητήματα, π.χ. εάν έχουν πράγματι μια βάσιμη και άρα νομικά διεκδικήσιμη αξίωση.
• Να συμβάλλει στην εξωδικαστική επίλυση (μικρο)διαφορών, με προτάσεις βέλτιστων λύσεων για τα αντίδικα μέρη, και
• Να διατυπώνει προβλέψεις για το αποτέλεσμα μιας εξελισσόμενης διαδικασίας ή υπόθεσης, π.χ. για την πιθανότητα υποτροπής ενός δράστη στο μέλλον.
ΙΙΙ. Βέβαια, για να είναι εύστοχες και σύννομες οι απαντήσεις της Τεχνητής Νοημοσύνης, πρέπει να τηρούνται ορισμένες προϋποθέσεις και συγκεκριμένα να διασφαλίζονται: ο έλεγχος της ποιότητας των δεδομένων και η πιστοποίηση των συστημάτων, η λογοδοσία, η διαφάνεια, η εποπτεία από τον άνθρωπο και η κυβερνοασφάλεια.
Επιπλέον, το υλικό στο οποίο βασίζεται η Τεχνητή Νοημοσύνη είναι απαραίτητο να έχει τρία ειδικότερα στοιχεία: Να είναι προτυτοποιημένο, μηχαναγνώσιμο και ανωνυμοποιημένο, να συλλέγονται δηλ. τα στοιχεία της με βάση ενιαίους κανόνες συγκέντρωσης, να διαμορφώνονται με τρόπο που να γίνονται αντιληπτά από τα συστήματα της Τεχνητής Νοημοσύνης και, ακόμη, να μην αποκαλύπτονται από τη χρήση των στοιχείων αυτών τα προσωπικά δεδομένα προσώπων που εμπλέκονται π.χ. σε μία δικαστική απόφαση.
Εφόσον συντρέχουν οι προϋποθέσεις αυτές, τα στοιχεία που παρέχονται στους δικαστικούς λειτουργούς από τα συστήματα της Τεχνητής Νοημοσύνης παρουσιάζουν ικανά εχέγγυα αξιοπιστίας και οδηγούν σε δικαστικές αποφάσεις που έχουν ως γνώρισμα την ταχύτητα στην έκδοσή τους, την τεκμηρίωση, τη σχετική ομοιομορφία και συνακόλουθα την προβλεψιμότητα, καθώς οι αποφάσεις αυτές θα στηρίζονται σε αντίστοιχες παλαιότερες με παρόμοια πραγματικά περιστατικά. Επίσης, για τον ίδιο αυτό λόγο, οι δικαστικές αυτές αποφάσεις μπορούν να διεκδικήσουν το τεκμήριο της πληρότητας και της αμεροληψίας.
Σε αυτό το πλαίσιο, ενδιαφέρον είναι να σημειωθεί ότι ήδη σε άλλες χώρες, όπως η Εσθονία, η Κίνα, οι Ην. Πολιτείες, η Αυστραλία, κ.ά., δοκιμάζονται πιλοτικά προγράμματα Τεχνητής Νοημοσύνης σε δικαστικό επίπεδο, κυρίως για μικροδιαφορές, αλλά με βασικό τον ρόλο του φυσικού δικαστή για τον τελικό έλεγχο της προς έκδοση απόφασης.
IV. Βέβαια, υπάρχουν ακόμη πεδία στα οποία το έδαφος της Τεχνητής Νοημοσύνης, όταν αυτή εφαρμόζεται για απονομή της Δικαιοσύνης, θεωρείται έως τώρα ολισθηρό ή και επικίνδυνο. Ειδικότερα, η Τεχνητή Νοημοσύνη φαίνεται να παρουσιάζει ακόμη ανεπάρκειες σε θέματα, όπως η συγκρότηση ενός δικανικού συλλογισμού, η παράθεση μιας τεκμηριωμένης και πειστικής αιτιολογίας για τη λαμβανόμενη απόφαση, η ερμηνεία αόριστων εννοιών και γενικών εννοιών του δικαίου, όπως η αρχή της καλής πίστης και η αρχή της αναλογικότητας, και, ακόμη, η αντιμετώπιση καινοφανών καταστάσεων, όπως ιδίως της λεγόμενης «απρόοπτης μεταβολής των συνθηκών» (άρθρο 381 Αστ. Κώδικα).
Επίσης, προβλήματα αναφύονται όταν η Τεχνητή Νοημοσύνη στηρίζει τις προβλέψεις της επάνω σε υλικό που εμπεριέχει γενικευμένα στερεότυπα ή προκαταλήψεις, π.χ. ότι οι έγχρωμοι εγκληματούν περισσότερο από τους λευκούς, ή όταν εφαρμόζονται ισοπεδωτικοί αλγόριθμοι, χωρίς επιμέρους μελέτη της κάθε περίπτωσης, πράγμα που οδηγεί σε αδικίες.
Προς αντιμετώπιση τέτοιων και άλλων παρεμφερών ζητημάτων που θίγουν τις δικονομικές εγγυήσεις μιας δίκαιης δίκης (άρθρα 6 ΕΣΔΑ και 47 Χάρτη Θεμελ. Δικαιωμάτων Ε.Ε.), τα προσωπικά δεδομένα, την ιδιωτικότητα, και, γενικότερα, τα ανθρώπινα δικαιώματα, μεριμνούν ήδη σημαντικά διακρατικά κείμενα. Κυρίως αναφέρεται εδώ η άμεσα δεσμευτική (υπό μορφή Κανονισμού) για τα Κράτη-Μέλη της Ευρωπαϊκής Ενωσης «Πράξη για την Τεχνητή Νοημοσύνη» (AI Act), που τέθηκε σε ισχύ, την 1η Αυγούστου 2024. Επίσης, σε διεθνές επίπεδο, ενδιαφέρον παρουσιάζει η λεγόμενη «Παγκόσμια Ψηφιακή Συμφωνία» (GDC) για τη μείωση των ανισοτήτων των χωρών κατά την πρόσβαση στις νέες τεχνολογίες, ενώ και στη χώρα μας έχουν εισαχθεί μέτρα, όπως νομοθεσία (ν. 4961/2022), «Σχέδιο για Μετάβαση της Ελλάδας στην Εποχή της Τεχνητής Νοημοσύνης» (2024) και τα προγράμματα “Pharos” και «Δαίδαλος», ώστε η χώρα μας να αξιοποιήσει τις νέες τεχνολογίες.
Υπάρχουν βέβαια και κάποιοι γενικότεροι κίνδυνοι από την άμετρη και αλόγιστη χρήση της Τεχνητής Νοημοσύνης, όπως το να περιμένει ο πολίτης τα πάντα από αυτήν, οδηγούμενος εν τέλει σε σημείο απραξίας και νωθρότητας, ή αντίστροφα να γίνεται ο πολίτης το αντικείμενο ενός ασφυκτικού, αόρατου καφκικού ελέγχου των στοιχείων και δεδομένων του από το Κράτος και από τους κολοσσούς της τεχνολογίας (Big Tech), ή από άλλα δίκτυα και διακομιστές, ή και να βομβαρδίζεται συνεχώς από «κοινωνικά μηνύματα» με στόχο την παραπληροφόρηση και τη χειραγώγησή του. Επίσης, δεν αποκλείεται κάποια στιγμή στο μέλλον η Τεχνητή Νοημοσύνη, λειτουργώντας υπό μορφή ανθρωποειδούς με εξαιρετική ευφυία, να διαπλάθει καταστάσεις που το ίδιο «κρίνει» ως ορθές και να αποκτήσει έτσι τον έλεγχο των πραγμάτων στη ζωή των ανθρώπων.
Όπως όμως και αν έχουν όμως τα πράγματα, η Τεχνητή Νοημοσύνη είναι πλέον μέρος της καθημερινής μας ζωής και εναπόκειται σε όλους μας να τη χρησιμοποιήσουμε προς όφελός μας.
Πώς όμως μπορούμε να το πετύχουμε αυτό; Με δύο, πιστεύω, βασικούς τρόπους: Πρώτον, αποτρέποντας κατά το δυνατόν παρεμβάσεις στα προσωπικά μας δεδομένα μέσω της Τεχνητής Νοημοσύνης από οποιονδήποτε ανεπιθύμητο παράγοντα. Και δεύτερον, αξιοποιώντας το πολύτιμο αυτό τεχνικό εργαλείο κατά τρόπο ώστε να διευκολυνθούμε στην εργασία μας και να αποκτήσουμε περισσότερο ελεύθερο χρόνο, χωρίς όμως να υποκύψουμε στις σειρήνες της νωθρότητας και να χάσουμε έτσι την καινοτόμα δημιουργικότητά μας, αλλ΄αντίθετα επιδιώκοντας, κατά την ωραία προτροπή του Καζαντζάκη στον Πρόλογο της «Ασκητικής» του, «να φτάσουμε όπου δεν μπορούμε».
Ακολουθεί η εισήγηση του κ. Ιωάννη Σαρμά (πρ. Πρωθυπουργός, Επίτιμος Πρόεδρος Ελεγκτικού Συνεδρίου, Επίτιμος Διδάκτορας ΑΠΘ, Παντείου Πανεπιστημίου και Διεθνούς Πανεπιστημίου Ελλάδος).
Τα στάδια λήψης μιας δικαστικής απόφασης και η Τεχνητή Νοημοσύνη
του Ιωάννη Σαρμά, πρ. υπηρεσιακού Πρωθυπουργού, επίτιμου Προέδρου Ελεγκτικού Συνεδρίου, επίτιμου Διδάκτορα Αριστοτελείου, Παντείου και Διεθνούς Πανεπιστημίου Ελλάδος
Σε όλα τα στάδια λήψης μιας δικαστικής απόφασης, η τεχνητή νοημοσύνη μπορεί να παρεισφρήσει. Όχι όμως μέχρι του σημείου που να καταστήσει δυνατή την αντικατάσταση του ανθρώπου δικαστή. Στις δημοκρατίες μας, ο άνθρωπος δικαστής θα παραμείνει αναντικατάστατος, όποια κι αν είναι η πρόοδος της επιστήμης.
Οι δυνατότητες της τεχνητής νοημοσύνης
Υπάρχουν τέσσερις κατηγορίες λογισμικών που προσαρμόζονται στις ιδιαίτερες απαιτήσεις των τεσσάρων σταδίων ** ** λήψης μιας δικαστικής απόφασης:
Λογισμικά κατανόησης και επεξεργασίας των προβαλλόμενων ισχυρισμών των διαδίκων:
Τα λογισμικά τύπου Natural LanguageProcessing και Natural Language Generationμπορεί να εξορύξουν το νόημα ενός κειμένου, να το κατηγοριοποιήσουν, να το εντάξουν σε γενικότερο πλαίσιο, και εν συνεχεία να εμφανίσουν σε ανθρώπινο, λογικά δομημένο λόγο πληροφορίες από τα δεδομένα που επεξεργάστηκαν, απαντώντας στις ερωτήσεις που τους έχουν τεθεί.
Λογισμικά εντοπισμού του εφαρμοστέου κανόνα δικαίου και ερμηνείας του σε σχέση με το πραγματικό της υπόθεσης:
Λογισμικά τύπου Legal Analytics Systems και Natural Language Processing μπορούν να συντελέσουν στην εξειδίκευση των νομικών ερωτημάτων που τους τίθενται και στη διατύπωση απαντήσεων σε φυσική γλώσσα, επικεντρωμένων στο ερώτημα. Λογισμικά τύπου Expert Systems προβαίνουν σε γενικεύσεις ύστερα από επεξεργασία δεδομένων, λχ. πλήθους δικαστικών αποφάσεων επί ενός ζητήματος, διατυπώνοντας εξειδικευμένο κανόνα εφαρμόσιμο σε συγκεκριμένα πραγματικά περιστατικά.
Λογισμικά αναζήτησης της αλήθειας των πραγματικών ισχυρισμών των διαδίκων:
Λογισμικά μπορεί να κατηγοριοποιούν γεγονότα ως κρίσιμα και μη κρίσιμα για την εφαρμογή του νόμου, να εκφέρουν πιθανολογήσεις, να προβαίνουν σε συναγωγές, σε συσχετίσεις και σε διασταυρώσεις, να εντοπίζουν κενά ή αντιφάσεις (Microexpressions Analysis, Long Short-TermMemory Networks, Variable Elimination, BeliefPropagation, Junction Tree Algorithms). Μπορεί να διακρίνουν patterns (πρότυπα) ψευδούς κατάθεσης μάρτυρα, προσέχοντας τον τόνο της φωνής, της έκφρασης του προσώπου, της γλώσσας του σώματος (Facial Action CodingSystem, Gaussian Mixture Models, Voice StressAnalysis, ** ** EyeDetect και Veritone IlluminateTechnologies).
Λογισμικά υπαγωγής των κρίσιμων πραγματικών περιστατικών στον εφαρμοστέο κανόνα δικαίου:
Λογισμικά τύπου Decision Support Systems, Analytical and Modeling Software, ProjectManagement Software, Risk ManagementSoftware, Ethical Decision Support Tools, AnyLogic, Simul8 και Arena Softwaresαξιολογούν διαφορετικές επιλογές στη βάση των συνεπειών που αυτές συνεπάγονται, εντοπίζουν κριτήρια που μπορεί να παίξουν κρίσιμο ρόλο σε μία επιλογή, προτείνουν προτεραιοποιήσεις που μπορεί να γίνουν, ή βελτιστοποιούν λύσεις περιορίζοντας κινδύνους με συστάσεις κατάλληλων στρατηγικών.
Το αναντικατάστατο του ανθρώπου δικαστή
Το γεγονός όμως ότι υφίστανται λογισμικά που αναπτύσσουν ταυτόσημες ή σχεδόν ταυτόσημες λειτουργίες με αυτές του ανθρώπινου δικαστικού έργου δεν σημαίνει ότι πρέπει οπωσδήποτε να χρησιμοποιήσουμε τέτοια λογισμικά για να αντικαταστήσουμε τον άνθρωπο δικαστή.
Τέλη Δεκεμβρίου 2023, ο Πρόεδρος του Ανωτάτου Δικαστηρίου των Ηνωμένων Πολιτειών John Roberts τόνιζε:
«Οι μηχανές δεν μπορούν να αντικαταστήσουν πλήρως τους καίριους συντελεστές της δίκης. Για παράδειγμα, οι δικαστές μετρούν την ειλικρίνεια της απολογίας του κατηγορουμένου. Η λεπτομέρεια έχει σημασία. Πολλά μπορεί να εξαρτηθούν από μία τρεμούλα στα χέρια, μια σπασμένη φωνή, μία αλλαγή στο ύφος ομιλίας, μία σταγόνα ιδρώτα, ένα παίξιμο των ματιών. … Εξ άλλου, οι ανώτατοι δικαστές επιτελούν λειτουργίες που μόνο άνθρωποι μπορεί να εκτελούν. Οι αποφάσεις τους αναφέρονται στο αν στοιχειοθετείται υπέρβαση των ορίων εξουσίας του κατώτερου δικαστηρίου, κάτι που ως έλεγχος ανάγεται συνήθως σε ζήτημα δικαστικής πολιτικής … Κάποιες άλλες αποφάσεις τους επικεντρώνονται σε ανοιχτά ερωτήματα για το πώς πρέπει να εξελιχθεί η νομολογία … Η τεχνητή νοημοσύνη δεν κατευθύνει στο μέλλον, απλώς παρέχει πληροφορίες για κάτι που ήδη υπάρχει.»
Όπως και να την ορίσουμε, η τεχνητή νοημοσύνη στερείται αυτού που αποκαλείται deep understanding. Της βαθιάς δηλαδή κατανόησης της ύπαρξής της, του εγώ της, ως συνέχειας, κάτι που ο άνθρωπος, όπως και αν τον δούμε, προϊόν της δαρβινικής εξέλιξης ή δημιούργημα του Θεού, κατέχει ως κατηγορικό στοιχείο τού είναι του.
Αυτή η έλλειψη θα εμποδίζει πάντα τα λογισμικά να αντιλαμβάνονται το πλαίσιο μιας δικαστικής υπόθεσης με την ευρύτητα που το αντιλαμβάνεται ο άνθρωπος δικαστής. Ευρύτητα συναισθηματική και ηθική, που οφείλεται στην επικοινωνία του, μέσω της ενσυναίσθησης που διαθέτει, με τους συνανθρώπους του.
Ο δόλος του κατηγορουμένου για ανθρωποκτονία, το συμφέρον του παιδιού στις υποθέσεις ανάθεσης της επιμέλειάς του, η ένταξη μιας δικαστικής απόφασης στο αξιακόυπόβαθρο της κοινωνίας μας, είναι παραδείγματα όσων δεν μπορεί να πραγματοποιήσει σήμερα η τεχνητή νοημοσύνη, αλλά και συγχρόνως όσων ποτέ δεν πρέπει να της επιτραπεί να πραγματοποιήσει αυτοτελώς.
Οι δημοκρατίες μας έχουν τα μέσα να επιβάλουν μια τέτοια απαγόρευση.
Τρία κυρίως μέσα μπορεί να κινητοποιηθούν:
Πρώτον. Η ίδια η δικαστική εξουσία πρέπει να αποφασίζει αν και πώς θα προσφεύγει σε συστήματα τεχνητής νοημοσύνης για τη λήψη δικαστικής απόφασης. Αυτή θα θέτει τις προδιαγραφές και τα όρια, αυτή θα επιλέγει τους τεχνικούς που θα την βοηθήσουν να προχωρήσει.
Δεύτερον. Η διαφάνεια πρέπει να καλύψει ό,τι τα λογισμικά αυτά θα παράγουν. Πρέπει να παράγουν ένα πλήρες κείμενο δικαστικής απόφασης όπως αυτό που προέρχεται από το χέρι ανθρώπου δικαστή. Και πρέπει τα διαφανή κριτήρια που εφαρμόζει να είναι και ουσιαστικώς δίκαια, με σεβασμό στην ανθρώπινη αξία.
Τρίτον. Ένα νέο θεμελιώδες δικαίωμα πρέπει να αναδυθεί, το δικαίωμα του ανθρώπου να δικάζεται πάντα από ανθρώπους δικαστές. Κάτι που δεν σημαίνει οπωσδήποτε την απαγόρευση της χρήσης συστημάτων τεχνητής νοημοσύνης ως επικουρικών μέσων του ανθρώπινου δικαστικού έργου. Αλλά ότι ο άνθρωπος δικαστής θα έχει πάντα τον τελικό λόγο σε μια δικαστική απόφαση.
Η τεχνητή νοημοσύνη, υπό τον έλεγχο του ανθρώπου, σε επικουρικό πάντα ρόλο και με τις εγγυήσεις που μόλις αναφέρθηκαν, μπορεί να αναδειχθεί σε ευκαιρία. Όχι μόνο επιτάχυνσης της διαδικασίας απονομής της δικαιοσύνης. Αλλά και επικουρίας στον άνθρωπο δικαστή, στην προσπάθειά του για ποιοτικότερο έργο.
Η επιτυχία της εκδήλωσης αυτής μαρτυρά το αυξανόμενο ενδιαφέρον του νομικού – και όχι μόνο – κόσμου γύρω από ζητήματα σύγχρονων τεχνολογιών
Source/ Author:ethemis.gr