Pour éviter le danger des «boîtes noires», l'intelligence artificielle doit devenir explicable
Le « deep learning » (pour apprentissage profond), modèle le plus usuel du fonctionnement de l'intelligence artificielle, ne sait pas raisonner, ne possède pas le sens commun et est incapable d'avoir une interaction évoluée avec un humain.