Saltar al contenido

Grupodot en ICML 2019 (Conferencia Machine learning)

Del 9 al 15 de junio, participamos en el evento más prestigioso de la industria de la inteligencia artificial, el International Conference on Machine Learning.

Este es el espacio donde las universidades y empresas más reconocidas, presentan sus últimos avances en campos como investigación y nuevas aplicaciones en el área de la ciencia.
Compañías como Google, Facebook, Apple, Amazon y Netflix hacen parte de los sponsors de este aclamado evento, dejando en claro que la clave para lograr una ventaja competitiva en las industrias es a través de la investigación y el desarrollo.

data-network-2019-participacion-monica
data-network-2019-participacion-miguel

Los temas de investigación que se abordaron en esta conferencia fueron:

  • Ejemplos adversarios: Técnicas para “engañar” las redes neuronales y estudios sobre cómo evitar engañarlas, logrando así arquitecturas más seguras.
  • Aplicaciones: Cómo se aplican modelos novedosos a casos reales.
  • Modelos generativos: Modelosque aprenden de forma automática la distribución de los datos, logrando ejemplos nunca antes vistos.
  • Teoría de Deep Learning: Nuevas técnicas en redes neuronales profundas.
  • Deep Reinforcement Learning: Aprendizaje por refuerzo, son las técnicas usadas principalmente en robótica, similares a las que usamos los seres vivos para respaldar un conocimiento (refuerzo).
  • Procesos Gaussianos: Son las técnicas que se basan en teoría de probabilidad y estadística convencional, aplicada a métodos modernos de aprendizaje computacional.
  • Optimización: Cómo abordar problemas de optimización, principalmente aplicados a otros modelos de machine learning.
  • Robust Machine Learning: Técnicas que pueden aprender, incluso en presencia de datos ruidosos.
  • Visión por computador: Técnicas de ML para emular lo que nuestra vista hace.
  • Modelos causales: Modelos que tratan de explicar las razones del porqué ocurre un evento o explica por qué un modelo decidió una salida y no otra.
  • Arquitecturas de Deep Learning: Son las nuevas arquitecturas diseñadas para problemas preexistentes o nuevos problemas abordados desde esta rama.
  • Transfer and Multitask Learning: Modelos capaces de transferir conocimiento de una tarea a otra similar, así como aprender múltiples tareas en un único modelo.
  • Active Learning: Técnicas en que el modelo decide cuáles ejemplos son más útiles que otros, interactuando con el humano de manera activa.
Uno de los galardones al Best Paper Award fue entregado al trabajo llamado SATNet: Bridging deep learning and logical reasoning using a differentiable satisfiability solver de la Universidad de Harvard. Este trabajo muestra una mejora impresionante, ya que combina las reglas lógicas derivadas de la filosofía clásica con un enfoque moderno en el campo de la inteligencia artificial.A continuación vemos el SATNet en una aplicación familiar para todos. El algoritmo es capaz de elaborar las reglas lógicas necesarias para resolver un sudoku, sin intervención humana, a partir de la comparación entre uno sin resolver y otro solucionado. Como se observa en la fotografía, antes de este trabajo la tasa de éxito era del 0%, pero con la nueva contribución llega al 98%.