Cómo la Inteligencia Artificial y el Big Data transformarán la tecnología actual.
La Inteligencia Artificial está revolucionando el análisis de Big Data, ofreciendo nuevas oportunidades y desafíos para los analistas y desarrolladores. Explora cómo estas tecnologías transforman la forma en que procesamos y entendemos los datos, abordando aspectos cruciales como el Edge Computing y la Computación Cuántica.
ÍNDICE
IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN EL BIG DATA
La Inteligencia Artificial ya es un término común en nuestras vidas. Una tecnología que busca desarrollar conocimiento que permita a los sistemas desarrollar funciones que son propias únicamente del ser humano y que difieren del pasado en que los sistemas actúan en base a decisiones predefinidas o programadas. El principal cometido de ésta es proporcionar algoritmos que sean capaces de desarrollar funciones que únicamente el ser humano puede determinar.
Sin embargo, el presente es muy duro. Existen tantos piratas del conocimiento que se han subido al carro de la IA y que van a intentar convencer y desarrollar soluciones a nuestras empresas, y que ellas no son capaces de decidir: por lo que auguro un buen futuro a los consultores en IA.
DESARROLLADORES VS ANALISTAS DE DATOS: ROLES EN LA IA
Pero analicemos, puesto que hay dos diferencias, en los que trabajan con IA. Por un lado están quienes desarrollamos algoritmos ante la formulación de problemas; y quienes usan algoritmos de terceros y deben de saber exactamente cómo funcionan y cómo están desarrollados, para conocer si su uso es adecuado: los analistas.
Así, los analistas de datos, son los que usan los algoritmos diseñados por otros para clasificar, optimizar, predecir, detectar patrones, seleccionar atributos, etc. Mientras, que los que desarrollan los algoritmos se encargan de investigar nuevos algoritmos para lograr mejores ajustes, mejores porcentajes de acierto, etc. Algoritmos híbridos o formados por ensembles, nuevas maneras de validar el entrenamiento, y así todo lo que se nos ocurra imaginar.
CÓMO EL BIG DATA POTENCIA LA INTELIGENCIA ARTIFICIAL
Y en este escenario no nos podemos olvidar del Big Data: que ha revolucionado la ejecución de estos modelos de manera paralelizable, de modo que el procesamiento puede ser virtualizable, en la cloud o de manera virtual, para que las ejecuciones sean más rápidas.
Pero debemos de pensar que la ejecución de estos algoritmos requiere un coste computacional elevado y las respuestas son en función del problema a resolver y no son instantáneas. Los problemas de computación combinatoria usando computación clásica basada en las teorías de Von Neumann y Alan Turing no dan buenos resultados. Hasta ahora, la solución a estos problemas de optimización están basados en modelos co-evolutivos bio inspirados, que tratan de resolver estos límites en base a unas buenas aproximaciones iniciales.
La comunidad científica sufre una vuelta al pasado y aboga por soluciones en el Edge computing, que consiste en el procesamiento directo en la máquina
EDGE COMPUTING: UN ENFOQUE ESENCIAL PARA LA IA
También, en estos momentos la comunidad científica sufre una vuelta al pasado y aboga por soluciones en el Edge computing, que consiste en el procesamiento directo en la máquina, en el sensor, etc. Es un paso más sobre los sistemas ciberfísicos, donde la computación debe de ser apropiada para que la solución del problema no se procese en la plataforma sino en el propio sistema. Y la recuperación de los Sistemas de FPGA (dispositivos programables con bloques lógicos), que tuvieron su auge y quedaron obsoletos por otros sistemas como microprocesadores, sistemas ARM [sistemas electrónicos con capacidad de cómputo y conjunto reducido de instrucciones) o DSP (procesadores de señales digitales), vuelven a recuperar su protagonismo.
Para ello, se están desarrollando nuevos modelos a partir de redes neuronales como son las SNN o redes neuronales de eventos que constituyen la tercera generación de redes neuronales artificiales, basadas en el comportamiento real del cerebro. Así, permitirán un aprendizaje continuo, y no solo clasificar, predecir el comportamiento, sino incorporar discretización en las entradas y plasticidad en los ajustes.
REDES NEURONALES Y SISTEMAS NEUROMÓRFICOS
Con todo, la integración de ambos sistemas hardware y software, en forma de bloques con sintetización del ASIC, o directamente en la FPGA, permitirá desarrollar sistemas neuromórficos reales, basados en circuitos analógicos para imitar estructuras neurobiológicas ubicadas en el sistema nervioso.¿CÓMO LA COMPUTACIÓN CUÁNTICA TRANSFORMARÁ LA IA?
Finalmente, el procesamiento cuántico que utiliza átomos para realizar su computación (así 50 átomos permitirán 1000 qbits) , eliminará los problemas de la computación clásica. En la actualidad, existen tecnologías cuánticas profundas y medianas que son las actuales y que se pueden adquirir o probar. La migración de los algoritmos bajo Ias nuevas premisas de framworks de desarrollo, permitirán poner en competición plataformas clásicas y cuánticas y resolver nuevos problemas o dar solución a algunos que jamás ni hubiéramos imaginado. Por consiguiente, el mundo afronta terribles retos tecnológicos inimaginables hace tan solo una década. El pasado nos pertenece y enorgullece pero el futuro es incierto y aterrador, y solo los mejores conseguirán los retos.Artículos relacionados
Doctor Ingeniero Industrial. Director de I+D de ITCL e investigador principal del grupo de Investigación de Electrónica Aplicada e Inteligencia Artificial.
Experto en el desarrollo de dispositivos electrónicos (hardware) y en sistemas de control industrial, además del diseño de modelos conexionistas para la identificación, clasificación y modelado de sistemas dinámicos en Big Data y Blockchain. Ha dirigido y participado en gran número de proyectos de I+D, más de 100, para el desarrollo de prototipos en proyectos precompetitivos, competitivos y de investigación industrial, entre otros.