De manière contre-intuitive nous ferions davantage confiance à l’IA quand nous n’en saisissons pas le fonctionnement. Ceci est l’objet de recherches de Kate Kellogg, professeur au MIT et ses collègues Tim DeStefano, Michael Menietti et Luca Vendraminelli, affiliés au Laboratory for Innovation Science de Harvard, sur la façon dont les humains perçoivent les recommandations algorithmiques.
Les chercheurs ont constaté que la possibilité d’examiner le fonctionnement du modèle entraînait des taux d’acceptation plus faibles, le grincheux qui sommeille en nous trouvant sans doute une bonne raison d’expliquer que oui, mais moi, je ne suis pas dans ce cas là. A l’inverse, les recommandations des modèles ininterprétables sont plus suivies, même lors de recommandations discutables, probablement en partie parce que ces modèles ont été validés par les pairs. Voilà qui est encourageant pour l’efficacité à venir, mais perturbant pour l’esprit critique !