Over the years, when speaking about prediction models, the focus has been set on
improving their accuracy, at the cost of loosing any comprehension of how the model
predicts. Consequently, it has also been lost the ability of knowing if the behavior of
the model is correct. Moreover, due to the fact that the addresses of the predictions
do not have information about how ethic or fair the model is when predicting, persons
become reticent to use such type of models. Therefore, in the last years there have
been developed investigations aiming to explain such predictions in order to make
them intelligible for humans, using techniques like LIME or SHAP, responsible for
explaining in an interpretable way what happens behind the prediction. This work
addresses this issue and reviews recent literature on the topic.A lo largo de los años, en el ámbito de los modelos de predicción, el foco se ha
centrado en mejorar las predicciones realizadas por los modelos, perdiendo a cambio
toda comprensión a cerca de cómo el modelo realiza la predicción. La pérdida de comprensión conlleva además el desconocimiento del correcto funcionamiento del modelo,
así como reticencias a usar dicho modelo de las personas destinatarias de las predicciones al no poseer información acerca de aspectos éticos y justos a la hora de realizar
las predicciones. Es por ello que en los últimos años se ha investigado cómo explicar
éstas para así hacerlas de nuevo intelegibles para el ser humano, desarrollando técnicas como LIME y SHAP, encargadas de exponer en una forma interpretable por el ser
humano lo que sucede detrás de la predicción. En este trabajo abordamos este tema, y
revisamos la literatura existente sobre el mismo.Universidad de Sevilla. Grado en Física y Matématica