Historia de la inteligencia artificial

La inteligencia artificial: nacimiento, aplicaciones y tendencias de futuro

I+D+i Internet Informática Ingeniería Ciberseguridad

La inteligencia artificial, para quien no la usa a diario, parece un concepto propio de grandes producciones cinematográficas o libros de ciencia ficción. Pero lo cierto es que se trata de un conjunto de concepciones casi centenarias que están cada vez más presentes y a las que recurrimos, muchas veces, sin darnos cuenta. Descubre qué es la inteligencia artificial, para qué sirve, cuáles son sus riesgos y desafíos y qué esperamos de ella en el futuro.

Historia de la IA
La inteligencia artificial no trata de crear conocimiento nuevo, sino de recopilar y procesar los datos para sacarles el mayor partido a la hora de decidir.

La inteligencia artificial se ha convertido en una herramienta amplia y revolucionaria con innumerables aplicaciones en nuestro día a día. Capaz de alumbrar robots que actúan con respuestas similares a las humanas y de responder a peticiones de voz con funcionalidades prácticas en móviles y altavoces, la inteligencia artificial ha atraído la atención de empresas de Tecnologías de la Información y las Comunicaciones (TIC) de todo el mundo y se considera la Cuarta Revolución Tecnológica tras la proliferación de las plataformas móviles y en la nube. Pese a la innovación que proyecta en nuestras vidas, su historia es un largo proceso de avances tecnológicos.

Definición y orígenes de la inteligencia artificial

Cuando hablamos de “inteligencia” en un contexto tecnológico a menudo nos referimos a la capacidad de un sistema para utilizar la información disponible, aprender de ella, tomar decisiones y adaptarse a nuevas situaciones. Implica una facultad de resolver problemas de manera eficaz, según las circunstancias y limitaciones existentes. Por su parte, el término “artificial” significa que la inteligencia en cuestión no es inherente a seres vivos, sino que se crea mediante la programación y el diseño de sistemas informáticos.

Como resultado, el concepto de “inteligencia artificial” (IA) alude a la simulación de procesos de inteligencia humana por parte de máquinas y programas informáticos. Estos sistemas están desarrollados para realizar tareas que, si las llevara a cabo el ser humano requerirían el uso de inteligencia, como el aprendizaje, la toma de decisiones, el reconocimiento de patrones y la resolución de problemas. Por ejemplo, gestionar enormes cantidades de datos estadísticos, detectar tendencias y aventurar recomendaciones según las mismas o, incluso, llevarlas a cabo.

Actualmente, la IA no trata de crear conocimiento nuevo, sino de recopilar y procesar los datos para sacarles el mayor partido a la hora de decidir. Se apoya en tres pilares básicos:

  • Los datos. Es la información recopilada y organizada sobre la que queremos automatizar tareas. Pueden ser números, textos, imágenes, etc.
  • El hardware. Se trata de la capacidad de computación que nos permite procesar los datos a mayor velocidad y con mayor precisión para hacer posible el software.
  • El software. Consta de un conjunto de instrucciones y cálculos que permiten entrenar sistemas que reciben datos, establecen patrones y pueden generar nueva información.

Pero, ¿qué son los algoritmos de la IA? Reciben este nombre las reglas que proporcionan las instrucciones para la máquina. Los principales algoritmos de la IA pueden ser aquellos que emplean la lógica, basados en los principios racionales del pensamiento humano, y los que combinan lógica o intuición (aprendizaje profundo o deep learning), que emplean el patrón de funcionamiento del cerebro de las personas para que la máquina aprenda tal y como lo harían ellas.

¿Cómo nació la inteligencia artificial?

La idea de crear máquinas que imitaran la inteligencia humana estaba presente incluso en la antigüedad, con mitos y leyendas sobre autómatas y máquinas pensantes. Sin embargo, no fue hasta mitad del siglo XX cuando se investigó su verdadero potencial, después de que se desarrollaran las primeras computadoras electrónicas. 

En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, considerada la primera inteligencia artificial, aun cuando todavía no existía el término. Posteriormente, el matemático británico Alan Turing publicó en 1950 un artículo con el título “Computing machinery and intelligence” (“Maquinaria e inteligencia informática”) en la revista Mind donde se hacía una pregunta: ¿Pueden pensar las máquinas? Proponía un experimento que pasó a denominarse Test de Turing y que, según el autor, permitiría determinar si la máquina podría tener un comportamiento inteligente similar al de un ser humano o indistinguible de este.

John McCarthy acuñó en 1956 el término “inteligencia artificial” e impulsó en la década de 1960 el desarrolló del primer lenguaje de programación de IA, LISP. Los primeros sistemas de inteligencia artificial se centraron en reglas, lo que condujo al desarrollo de sistemas más complejos en las décadas de 1970 y 1980, junto a un impulso de la financiación. En estos momentos, la IA experimentó un renacimiento gracias a avances en algoritmos, hardware y técnicas de aprendizaje automático.

Ya en la década de 1990, los avances en la potencia informática y la disponibilidad de grandes cantidades de datos permitieron a los investigadores evolucionar algoritmos de aprendizaje y consolidar las bases de la IA del presente. En los últimos años, esta tecnología ha vivido un crecimiento exponencial, impulsado en buena medida por el desarrollo del aprendizaje profundo, que aprovecha redes neuronales artificiales con diversas capas para procesar e interpretar estructuras de datos complejas. Este avance ha revolucionado las aplicaciones de IA, incluyendo el reconocimiento de imágenes y voz, el procesamiento del lenguaje natural y los sistemas autónomos.

Historia de la inteligencia artificial

  • 1943
  • 1950
  • 1956
  • 1961
  • 1964
  • 1966
  • 1997
  • 2002
  • 2011
  • 2014
  • 2016
  • 2022
Ilustración

Los investigadores estadounidenses Warren McCulloch y Walter Pitts presentan su modelo de neuronas artificiales, considerada la primera inteligencia artificial.

Ilustración

El matemático británico Alan Turing propone un test para la inteligencia mecánica. Si una máquina puede engañar a los humanos para que piensen que es humana, entonces tiene inteligencia.

Ilustración

El informático estadounidense John McCarthy acuña el término “inteligencia artificial” para describir “la ciencia y la ingeniería de hacer las máquinas inteligentes”.

Ilustración

General Motors instala el primer robot industrial, Unimate, para sustituir a humanos en tareas de montaje.

Ilustración

Joseph Wizenbaum desarrolla el primer programa informático de procesamiento de lenguaje natural, ELIZA que simula la conversación con humanos.

Ilustración

Irrumpe Shakey, el primer robot móvil de propósito general capaz de razonar sobre sus propias acciones. Es considerado el antecesor de los coches autónomos.

Ilustración

La supercomputadora Deep Blue de IBM vence al campeón mundial de ajedrez Garry Kasparov en una partida.

Ilustración

Se lanza al mercado Roomba, el primer aspirador robótico fabricado en masa y vendido por iRobot, capaz de recorrer y limpiar en casa.

Ilustración

Apple integra a Siri, un asistente virtual con una interfaz de voz, en su iPhone 4S.

Ilustración

El sistema Watson de IBM, capaz de responder a preguntas formuladas en lenguaje natural, gana el primer premio en el popular concurso de televisión estadounidense Jeopardy!

Ilustración

El programa computacional Eugene pasa el Test de Turing al convencer de que era un ser humano a un tercio de los jueces que participaban en el experimento.

Ilustración

El programa AlphaGo de DeepMind, basado en una red neuronal profunda, vence a Lee Sodol, el campeón mundial de Go en cinco partidas.

Ilustración

La compañía OpenAI lanza al público ChatGPT, una aplicación de chatbot de inteligencia artificial entrenada para mantener conversaciones y responder a preguntas.

 VER INFOGRAFÍA: Historia de la inteligencia artificial [PDF]

Funciones y propósitos de la inteligencia artificial 

La inteligencia artificial desempeña un papel fundamental en la transformación digital y sostenible en diversos sectores. No solo crea un clima favorable para el desarrollo de un escenario digital cada vez más avanzado, sino que además es una de las tecnologías sostenibles con mayor impacto: permite reducir el número de equipos, recursos o materiales en las organizaciones o empresas. Presenta una mayor productividad con menos, lo que garantiza una base digital y sostenible para cualquier empresa.

La IA tiene aplicaciones prácticas en una amplia variedad de sectores, con un impulso en la eficiencia, la innovación y la toma de decisiones. Algunas de estas áreas son:

 Salud

Actualmente existen chatbots que preguntan a los pacientes por sus síntomas para realizar un diagnóstico a partir de patrones. Además, la IA sirve para desarrollar tratamientos personalizados basados en datos genéticos y clínicos.

 Finanzas

La tecnología inteligente permite evaluar riesgos y oportunidades, mejorando la toma de decisiones en inversiones y préstamos así como proporcionar asesoramiento financiero personalizado a través de asistentes virtuales.

 Educación

Existen plataformas educativas que emplean la IA para adaptar el contenido de aprendizaje según las necesidades individuales de los estudiantes. También permite simplificar tareas administrativas, como la corrección automática de exámenes.

 Agricultura

La IA analiza datos agrícolas para crear una agricultura de precisión optimizando el uso de recursos, mejorando la productividad y reduciendo el impacto ambiental. Además, drones y sensores basados en IA pueden monitorear el estado de los cultivos y ayudar a la detección temprana de enfermedades.

 Energía

Las aplicaciones de inteligencia artificial optimizan la distribución de energía, mejorando la eficiencia y la fiabilidad de las redes eléctricas, y permiten predecir fallos en equipo, reduciendo el tiempo de inactividad y el costo de mantenimiento.

 Logística y transporte

La IA juega un papel clave en el desarrollo de vehículos autónomos, así como en la optimización de las rutas de entrega y transporte, reduciendo costes y emisiones.

 Comercial

Algunas aplicaciones de la inteligencia artificial permiten hacer pronósticos de ventas y elegir el producto adecuado para recomendárselo al cliente.

Riesgos y desafíos asociados a la inteligencia artificial 

Los avances en la inteligencia artificial han provocado la transformación de diversas áreas y sectores, pero también han suscitado preocupaciones sobre posibles riesgos o desafíos que puedan surgir en su desarrollo. Estos son algunos ejemplos: 

 Sesgos y discriminación algorítmica

La IA se basa en algoritmos y datos para tomar decisiones, pero estos pueden estar sesgados y perpetuar injusticias. Estos pueden reflejar y amplificar sesgos existentes, lo que podría llevar a decisiones discriminatorias.

 Violación de la privacidad

La recopilación y el análisis de grandes cantidades de datos para alimentar algoritmos de IA puede plantear preocupaciones sobre la privacidad de la información de las personas si no se manejan adecuadamente. Las violaciones de datos pueden favorecer incluso la proliferación de posibles ataques cibernéticos. 

 Desplazamiento laboral

La IA y la automatización también pueden suponer un riesgo de desplazar a millones de trabajadores de sus empleos. Las tareas repetitivas y rutinarias pueden ser fácilmente asumidas por sistemas de IA avanzados, lo que podría llevar al desempleo masivo en algunos sectores, lo que plantea desafíos económicos y sociales.

 Seguridad

La IA también puede ser utilizada con fines maliciosos, como para el desarrollo de ataques cibernéticos más sofisticados y menos conocidos para las víctimas.

 Ética y responsabilidad legal

Las decisiones motivadas por los algoritmos pueden plantear cuestiones éticas, especialmente cuando se tratan de situaciones críticas, como la atención médica, la justicia y la seguridad. A esto se une la dificultad de determinar la responsabilidad legal en caso de decisiones incorrectas o acciones perjudiciales de sistemas de IA. 

 Superinteligencia y control

Algunos expertos han planteado preocupaciones sobre un posible riesgo asociado con el desarrollo de una IA superinteligente a largo plazo. El principal temor se basa en que si llegamos a crear una IA con una inteligencia superior a la humana, podría volverse autónoma y superar nuestra capacidad de control. 

Mirando hacia el futuro: tendencias y proyecciones de la IA

Las tendencias y proyecciones de la IA abarcan una amplia gama de áreas y tienen un gran potencial para influir significativamente en diversos sectores. Mirar hacia el futuro de esta tecnología supone cambiar nuestra concepción de cómo interactuamos con la tecnología y abordamos temas complejos. Uno de los enfoques centrales en los próximos años será el desarrollo de técnicas que permitan comprender y explicar las decisiones tomadas por los algoritmos. Pero la ética de la IA, que actualmente ocupa un lugar central en el debate sobre la misma, seguirá teniendo gran importancia con la creciente implementación de prácticas que aseguren la equidad y la transparencia en el desarrollo y el despliegue de sistemas para asegurarlas.

Además, se anticipa un aumento de la especialización de la IA, con sistemas diseñados para tareas cada vez más específicas en sectores como la salud, la educación o, incluso, la agricultura. El desarrollo de todas estas proyecciones será más intenso con la convergencia de la IA con tecnologías emergentes como la computación cuántica y la robótica, que permitirá ampliar sus capacidades y aplicaciones en diversas industrias.