Grupodot en ICML 2019 (Conferencia Machine learning)
Del 9 al 15 de junio, participamos en el evento más prestigioso de la industria de la inteligencia artificial, el International Conference on Machine Learning.
Este es el espacio donde las universidades y empresas más reconocidas, presentan sus
últimos avances en campos como investigación y nuevas aplicaciones en el área de la
ciencia.
Compañías como Google, Facebook, Apple, Amazon y Netflix hacen parte de los
sponsors de este aclamado evento, dejando en claro que la clave para lograr una ventaja
competitiva en las industrias es a través de la investigación y el
desarrollo.
Los temas de investigación que se abordaron en esta conferencia fueron:
- Ejemplos adversarios: Técnicas para “engañar” las redes neuronales y estudios sobre cómo evitar engañarlas, logrando así arquitecturas más seguras.
- Aplicaciones: Cómo se aplican modelos novedosos a casos reales.
- Modelos generativos: Modelosque aprenden de forma automática la distribución de los datos, logrando ejemplos nunca antes vistos.
- Teoría de Deep Learning: Nuevas técnicas en redes neuronales profundas.
- Deep Reinforcement Learning: Aprendizaje por refuerzo, son las técnicas usadas principalmente en robótica, similares a las que usamos los seres vivos para respaldar un conocimiento (refuerzo).
- Procesos Gaussianos: Son las técnicas que se basan en teoría de probabilidad y estadística convencional, aplicada a métodos modernos de aprendizaje computacional.
- Optimización: Cómo abordar problemas de optimización, principalmente aplicados a otros modelos de machine learning.
- Robust Machine Learning: Técnicas que pueden aprender, incluso en presencia de datos ruidosos.
- Visión por computador: Técnicas de ML para emular lo que nuestra vista hace.
- Modelos causales: Modelos que tratan de explicar las razones del porqué ocurre un evento o explica por qué un modelo decidió una salida y no otra.
- Arquitecturas de Deep Learning: Son las nuevas arquitecturas diseñadas para problemas preexistentes o nuevos problemas abordados desde esta rama.
- Transfer and Multitask Learning: Modelos capaces de transferir conocimiento de una tarea a otra similar, así como aprender múltiples tareas en un único modelo.
- Active Learning: Técnicas en que el modelo decide cuáles ejemplos son más útiles que otros, interactuando con el humano de manera activa.