Η μηχανιστική ερμηνευσιμότητα (mechanistic interpretability) είναι η πρακτική του να ανοίξουμε το μαύρο κουτί της AI. Τα περισσότερα μοντέλα AI δέχονται μια είσοδο και παράγουν μια έξοδο, αλλά κανείς δεν μπορεί να εξηγήσει πλήρως τι συμβαίνει ενδιάμεσα. Η μηχανιστική ερμηνευσιμότητα στοχεύει να αλλάξει αυτό, χαρτογραφώντας τα εσωτερικά μονοπάτια — τα συγκεκριμένα στοιχεία και συνδέσεις — που χρησιμοποιεί ένα μοντέλο για να φτάσει στις απαντήσεις του.
Σκεφτείτε το σαν μια ακτινογραφία για την AI. Όπως οι γιατροί χρησιμοποιούν απεικονιστικές εξετάσεις για να δουν τι συμβαίνει μέσα στο σώμα, οι ερευνητές χρησιμοποιούν τεχνικές ερμηνευσιμότητας για να δουν τι συμβαίνει μέσα στον «εγκέφαλο» ενός μοντέλου. Εντοπίζουν ποια εσωτερικά μονοπάτια ενεργοποιούνται όταν το μοντέλο επεξεργάζεται μια ερώτηση, αποκαλύπτοντας πώς συνδέει έννοιες και οδηγείται σε μια απάντηση.
Μια αξιοσημείωτη ανακάλυψη ήρθε το 2025 όταν η Anthropic ανέπτυξε μια τεχνική που ονομάζεται circuit tracing. Έδειξαν ότι όταν το Claude δέχεται μια ερώτηση όπως «ποια είναι η πρωτεύουσα της πολιτείας που περιέχει το Dallas», το μοντέλο πρώτα αναγνωρίζει εσωτερικά το Texas και μετά συνάγει το Austin — πριν παράγει οποιοδήποτε κείμενο. Αυτό αποκάλυψε ότι τα μοντέλα AI μπορούν να σχηματίζουν ενδιάμεσες σκέψεις, παρόμοια με τους ανθρώπους, αντί να αντιστοιχίζουν απλώς λέξεις με patterns.
Η πρακτική αξία είναι σημαντική: βοηθά τους μηχανικούς να εντοπίζουν κρυφά ελαττώματα, να προβλέπουν σενάρια αποτυχίας και να επαληθεύουν ότι τα μοντέλα συμπεριφέρονται όπως αναμένεται. Η προσέγγιση δεν είναι χωρίς σκεπτικιστές — ορισμένοι ερευνητές αμφισβητούν αν αυτές οι μέθοδοι μπορούν να κλιμακωθούν στα μεγαλύτερα μοντέλα. Αλλά ο στόχος παραμένει πειστικός: συστήματα AI που μπορούμε να επιθεωρήσουμε, να αποσφαλματώσουμε και να εμπιστευτούμε.