Vysvetliteľnosť
Vysvetliteľnosť AI označuje schopnosť porozumieť a interpretovať rozhodnutia a predpovede, ktoré robia systémy umelej inteligencie. S rastúcou zložitosťou AI modelov zabezpečuje vysvetliteľnosť transparentnosť, dôveru, súlad s reguláciami, zmierňovanie zaujatosti a optimalizáciu modelov prostredníctvom techník, ako sú LIME a SHAP.