O tópico do episódio de hoje é o Explainable AI, também conhecido como XAI. Este é o nome da área de estudo dentro da IA que trata a criação de modelos de IA cujos processos de decisão que dão origem às predições e ações conseguem ser entendidas por um humanos. No fundo é o oposto das conhecidas abordagens de Black Box, em que apenas temos acesso aos outputs das predições do modelo sem nenhum insights sobre como é que o modelo chegou a essa conclusão. Este tipo de estudos e evoluções para o mundo de AI torna-se cada vez mais relevante à medida que mais e mais cenários da nossa vida quotidiana se torna dependente de IA também começa a crescer a desconfiança que a sociedade tem destes modelos e com isso o crescimento da necessidade de ter modelos que consigam ser explicados e com isso conquistar pontos de confiança na sociedade que vão desbloquear a adoção de IA numa escala cada vez maior.
AI News:
ChatbotGPT worries teachers who seek to detect cheating by AI – The Washington Post
https://www.washingtonpost.com/education/2022/12/28/chatbot-cheating-ai-chatbotgpt-teachers/
A far-sighted approach to machine learning | MIT News | Massachusetts Institute of Technology
https://news.mit.edu/2022/multiagent-machine-learning-ai-1123
Inside MILA: The Need for ‘Humanity’ in AI (analyticsindiamag.com)
https://analyticsindiamag.com/inside-mila-the-need-for-humanity-in-ai/
Email us at podcast@buildingthefuture.pt
Hosts:
Marco António Silva: https://www.linkedin.com/in/marconsilva/
José António Silva: https://www.linkedin.com/in/canoas/
Vitor Santos: https://www.linkedin.com/in/vitor-santos-ab87662/
Produção:
Beatriz Herrera González – https://www.linkedin.com/in/beahgonzalez/