Muchos se rieron cuando escucharon a Mariano Rajoy eso de “tenemos que fabricar máquinas que nos permitan seguir fabricando máquinas porque lo que no van a hacer nunca las máquinas es fabricar máquinas a su vez”. Va por delante de todos nosotros, incluso de los ingenieros de Google. Rajoy es un adelantado a nuestra época. Nos guste o no, vaticinó el futuro: máquinas creando máquinas.
Cuando hablamos de inteligencia artificial (IA) y robots, muchos se echan las manos a la cabeza ante la creencia de que esta revolución industrial arrasará con el mercado laboral tal y como lo conocemos en la actualidad. Y es cierto, aunque en parte. Posiblemente, las tareas que requieren menos cualificación serán ejecutadas por máquinas. Sin embargo, se crearán nuevos empleos relacionados con la creación y el mantenimiento de estos robots. Y este es un punto conflictivo.
En el futuro, uno de los perfiles profesionales más demandados será el del programador altamente cualificado. Según algunos cálculos que maneja The New York Times, “solo 10.000 personas en el mundo tienen la educación, la experiencia y el talento necesarios para construir los complejos y misteriosos algoritmos matemáticos que impulsarán esta nueva estirpe de inteligencia artificial”. Esta ‘nueva estirpe’ que mencionan ya está aquí: vehículos que se conducen solos, aplicaciones para teléfonos móviles que reconozcan rostros, etc.
Entonces, ¿por qué no construir una inteligencia artificial capaz de crear a su vez nuevas inteligencias artificiales? Uno de los principales ingenieros de Google, Jeff Dean, ha alabado las bondades de un proyecto que lleva en marcha su compañía: AutoML. ML es la sigla de machine learning, (aprendizaje automático), el cual se refiere a los algoritmos computacionales que pueden a realizar labores específicas por sí solos analizando datos. Así lo explica el diario: “Es un algoritmo de aprendizaje automático que aprende a construir otros algoritmos de aprendizaje automático (…) Con esta tecnología, Google podría encontrar una manera de crear tecnología de inteligencia artificial que pueda sacar parcialmente a los humanos de la construcción de los sistemas de IA”.
Con el tiempo, este proyecto de Google servirá para que las empresas construyan sistemas con inteligencia artificial, aunque no tengan una gran cantidad de conocimientos. Actualmente, según Jeff Dean, “solo unas pocas miles de empresas tienen el talento requerido para construir IA, pero muchas más tienen los datos necesarios”. “Queremos pasar de miles a millones de organizaciones que resuelvan problemas de aprendizaje automático”, explicó.
El gigante de internet está construyendo algoritmos capaces de analizar el desarrollo de otros algoritmos para así aprender cuáles son los métodos exitosos y cuáles no. Finalmente, ‘aprenden’ a construir aprendizajes automáticos más eficaces. Ya ha habido problemas cuando se ha dejado que una máquina aprenda de los humanos, ya que derivó en comportamientos no deseados. Así ocurrió con Microsoft, cuyo bot de Twitter tuvieron que desactivar porque se volvió racista; y con Facebook, que vio cómo dos ordenadores entrenados terminaron por desarrollar un lenguaje propio que no entendía nadie más.
¿Qué puede pasar si dejamos en ‘manos’ de la inteligencia artificial la creación de nuevas inteligencias artificiales? Suponemos que, aunque la idea pueda insuflarnos algo de miedo, nada malo. Sin embargo, siempre estarán los agoreros apocalípticos como el filósofo británico Nick Bostrom, de la Universidad de Oxford, que comparó nuestro destino con el de los caballos, cuando estos fueron sustituidos por los automóviles y los tractores. Según recuerda Muy Interesante, en 1915, había en EE. UU. unos 26 millones de estos equinos, pero en la década de los 50 ya solo quedaban dos millones. Los caballos fueron sacrificados para venderse como comida para perros. Bostrom también señala que la IA supone un riesgo existencial para la humanidad comparable con el impacto de un gran asteroide o el holocausto nuclear.
Comentarios