Algoritmos e inteligencia artificial

Algoritmos e inteligencia artificial

Cuando un concepto tecnológico se pone de moda, los medios de comunicación y la ciudadanía suelen
 tergiversarlo  significativamente. Y esto pasa con los algoritmos y la inteligencia artificial.

Entendemos por inteligencia artificial el proceso por el cual la tecnología del silicio consigue emular la 
tecnología del carbono. Hay mil definiciones, pero todas confluyen en que las funciones de recogida de 
datos, almacenamiento  en memoria, proceso de los datos y toma de decisiones realizadas en dispositivos
 con semiconductores deben parecerse a las mismas funciones realizadas en el cerebro humano.

La recogida de datos de objetos corresponde a lo que llamamos la “internet of things”, con millones
 (o billones)  de sensores para recoger datos “objetivos”, de ínfimo valor individual pero de alto valor
 colectivo. Por ejemplo datos meteorológicos, o datos de tráfico, o datos de contaminación del aire o de
 acuíferos, etc., que permiten hacer predicciones o tomar decisiones de actuación.

Para la recogida de datos de personas se usan otras técnicas, sencillas y directas para obtener datos 
“objetivos”, como datos de padrón, de hacienda, etc., e indirectas mediante análisis por algoritmos para 
obtener datos “subjetivos” como preferencias, gustos, aficiones o ideología

El almacenamiento en memoria está resuelto gracias a la ley de Moore, el cofundador de Intel, que nos 
predijo el ritmo exponencial durante 40, o quizá más, años de la miniaturización de la integración, y
 también del coste, de transistores en circuitos integrados.

El proceso de datos sigue también la ley de Moore, y así hoy disponemos de proceso “quasi ad infinitum”. 
Sólo hay que cuidar la generación de calor “colateral” que se produce y el consiguiente coste de adquirir la 
energía y de la refrigeración necesaria. Mejor hacer el proceso en Alaska que en Europa. Refrigera más
 barato.

Cuando los datos son claros, estamos en terreno conocido, pero cuando los datos son estimados o no 
pueden estructurarse en una base de datos convencional, jerárquica o relacional, estamos ante el “Big Data”. 
Las cuatro V’s, “volume, variety, velocity & value”. Y requerimos de algoritmos para su proceso. Estos 
algoritmos de “Big Data” permiten dos tipos de análisis, el genérico para obtener patrones colectivos o de 
grupo, y el individualizado para particularizar la publicidad (o propaganda) comercial o política en un
 individuo. Hay sobrados ejemplos recientes, desde la campaña a las presidenciales de Trump, a la nueva 
LOPD aprobada en noviembre de 2018 España, que permite a los partidos políticos procesar los perfiles de
 los ciudadanos y entrometerse en sus canales de comunicación privados.

¿Cómo se produce la toma de decisiones? Hay dos formas de actuar, la “antigua” que era escribir un 
algoritmo definiendo toda la casuística, y donde el programador es el responsable de la toma de decisiones 
del programa. 

Y la “moderna”, la inteligencia artificial, donde el programa aprende a tomar decisiones en base a miles, 
millones, billones de casos resueltos, para luego poder actuar en los casos pendientes de resolver. Así 
aprende a reconocer caras humanas, a valorar la gravedad de un incidente o accidente, a definir prioridades 
o males menores, a cuantificar la probabilidad de no devolver un préstamo, o de ser un futuro delincuente, 
o de ser un futuro “mal ciudadano”. La inteligencia artificial es un algoritmo que se auto-modifica y se 
vuelve autónomo. Y el programador pierde el control de lo programado. 

Hay diversas técnicas de aprendizaje, de “machine learning”, desde una primera generación de aprendizaje 
de fuerza bruta, por prueba i error, al “deep learning” con redes neuronales por capas, y un poco más 
parecido a como aprende un niño. Se utilizan técnicas de reconocimiento de patrones, regresión lineal, 
análisis de discriminantes, árboles de regresión, modelos predictivos basados en el teorema de Bayes, 
optimización de distancias n-dimensionales entre vecinos, modelos de modelos, etc. Estamos en progreso 
contínuo.

La inteligencia artificial resuelve mejor que la humana casos “verticales” como jugar al ajedrez o al go, o 
reconocer millones de caras, o organizar y optimizar un espacio logístico, o quizás encontrar exoplanetas o 
desarrollar nuevos antibióticos, y cada vez más se acerca a la comprensión y utilización del lenguaje natural. 
Tenemos ya inteligencia artificial comercial. Google y Facebook lo aplican en sus algoritmos de busca y 
sugerencia, Google y Tesla en la conducción automática de vehículos, IBM ofrece su programa Watson de 
respuestas en lenguaje natural, y Microsoft Azure lo alquila para uso empresarial. A nivel de estados, China 
lidera la inteligencia artificial y la aplica masivamente al control social de sus ciudadanos.

Cuantitativamente, y debido a la ley de Moore todavía vigente, el número de  transistores y conexiones en 
un computador se acerca ya al de neuronas y sinapsis en un cerebro humano. Pero ¿afortunadamente? 
todavía no hemos sido capaces de programar emociones, sueños, deseos o amor. Me queda la duda de si ya 
hemos programado la creatividad y el arte. Y no me queda ninguna duda que en breve la inteligencia del 
carbono deberá convivir con la inteligencia del silicio, con los riesgos éticos que esto significa.

Ramon Palacio
Ingeniero de Telecomunicación
Socio fundador de Xponent Triple AQ

 

Comments are closed.