Desde su uso en teléfonos inteligentes para realizar tareas escolares hasta el diseño de nuevos medicamentos en gigantescos centros de datos, la Inteligencia Artificial está por todas partes, cambiando el planeta y afectando no solo los negocios sino también la geopolítica. Sin embargo, la IA no es algo nuevo; viene desde mediados del siglo pasado.
Introducción
Es difícil hablar del mundo tecnológico sin escuchar estas palabras: Inteligencia Artificial. Se trata de la tendencia del momento que pasó de mover 50.000 millones de dólares en 2023 a más de 184.000 millones en 2024 y, más importante aún, se proyecta que alcanzará los 826.730 millones en 2030, según datos de Statista.
Las razones tras el crecimiento del mercado de IA se deben a sus múltiples beneficios en innumerables verticales de mercado que van desde la educación y el gobierno hasta las industrias de salud e incluso de entretenimiento.
Su crecimiento ha sido tal que la empresa responsable por la fabricación de la mayoría de tarjetas aceleradoras de procesamiento usadas en IA, Nvidia, se convirtió a mediados de junio en la empresa más valiosa del planeta, alcanzando los 3,44 billones de dólares y superando a otros gigantes como Microsoft, Amazon y Apple, entre otros.
Pero antes de comenzar a discutir sobre su futuro, retos y tendencias, comencemos definiendo ¿qué es la IA?
Definición de la Inteligencia Artificial
La Inteligencia Artificial es un concepto amplio que involucra diferentes corrientes, subdivisiones y tendencias a lo largo de los años. De hecho, el término Inteligencia Artificial fue usado por primera vez en 1955 por el profesor estadounidense John McCarthy. Para ser más exactos, McCarthy se refirió a la IA como “la ciencia y la ingeniería de hacer máquinas inteligentes”.
Recordemos además que, según el Instituto de Stanford para la IA centrada en humanos (Stanford HAI), la inteligencia podría definirse como la capacidad de aprender y ejecutar técnicas adecuadas para resolver problemas y alcanzar objetivos, apropiadas al contexto en un mundo incierto y siempre cambiante.
Un enfoque más moderno lo proporciona Gartner al referirse a la IA como aquella que “aplica técnicas avanzadas de análisis y basadas en la lógica, incluido el aprendizaje automático, para interpretar sucesos, respaldar y automatizar decisiones y emprender acciones”.
Significado de la IA en la Sociedad
El impacto de la Inteligencia Artificial es incalculable por su campo de acción. Se trata de una tecnología transversal que puede ser usada en innumerables campos, desde el tratamiento de enfermedades hasta el desarrollo de armas militares. Al mismo tiempo, es una herramienta para aumentar la productividad de las empresas, pero también puede causar desempleo.
Según la firma Royal Society, gran parte del debate sobre la IA y el trabajo ha oscilado entre el temor al ‘fin del trabajo’ y, según la literatura académica, hay consenso en que la IA tendrá un efecto perturbador considerable en este campo donde se perderán algunos empleos, se crearán otros y otros cambiarán.
PwC llegó incluso a crear un ‘AI Jobs Barometer’, un índice en línea sobre el impacto de la IA en el empleo, los salarios, las competencias y la productividad basado en la publicación de más de 500 millones de anuncios laborales (vacantes) en 15 países. De igual forma, según PwC, la IA ya está impactando la productividad aumentándole casi 5 veces.
Historia de la Inteligencia Artificial
Aunque el término Inteligencia Artificial fue usado por primera vez en 1955, existen antecedentes en este concepto, dentro de los cuales se destaca el documento ‘Computing Machinery and Intelligence’ del matemático inglés Alan Turing. El científico sugería que, si los humanos utilizan la información disponible además de la razón para resolver problemas y tomar decisiones, ¿por qué las máquinas no pueden hacer lo mismo?
La Universidad de Harvard nos recuerda que, aunque existen antecedentes para hablar de IA, lo cierto es que hasta los años cincuenta las máquinas no tenían una característica clave de la IA: no podían almacenar órdenes, solo ejecutarlas. En otras palabras, se les podía decir lo que tenían que hacer, pero no podían recordar lo que hacían.
Los Inicios de la Inteligencia Artificial
El verdadero punto de arranque de la Inteligencia Artificial como la conocemos viene de una conferencia, la ‘Dartmouth Summer Research Project on Artificial Intelligence’ (DSRPAI), organizada precisamente por John McCarthy y Marvin Minsky en 1956, en la cual se discutieron las bases sobre las cuales debería desarrollarse esta tecnología.
Es importante recordar que los primeros dispositivos informáticos creados eran verdaderos monstruos. Como muestra, ENIAC (Electronic Numerical Integrator and Computer), usada para cálculos balísticos del ejército estadounidense, pesaba más de 27 toneladas. Eso sin contar su tamaño y costo de mantenimiento, una limitante que restringió el poder informático a unas pocas instituciones.
Otro antecedente destacable fue el trabajo de Frank Rosenblatt, quien desarrolló un ordenador llamado Perceptron a finales de los años 50 que imitaba una red neuronal.
Desarrollo en el Siglo XX
A partir de los trabajos de Alan Turing y John McCarthy, las investigaciones en Inteligencia Artificial florecieron, produciendo nuevos dispositivos de menor tamaño y con proyectos tan interesantes como el GPS (General Problem Solver) de Allen Newell y Herbert Simon, que más que un programa de computadora era un nuevo enfoque, una teoría de cómo los seres humanos pensamos. También fue el caso de Eliza, el primer chatbot desarrollado por Joseph Weizenbaum. La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) estadounidense estaba muy interesada en crear una máquina que pudiera transcribir y traducir el lenguaje hablado.
Sin embargo, al mismo tiempo que se hacían descubrimientos, se pecaba de optimismo, al punto que Marvin Minsky declaró a la revista Life en 1970 que en 8 años se tendrían máquinas con la inteligencia de un ser humano medio. Los desengaños, la recesión y problemas logísticos y financieros llevaron a un ‘invierno de la Inteligencia Artificial’ donde muchos proyectos quedaron suspendidos hasta la década de los noventa.
Avances Recientes
Después del invierno de la Inteligencia Artificial, el acceso a más fondos de investigación y mejoras en hardware y software llevaron a más logros. Incluso en 1996, los avances de la IA saltaron al público masivo gracias a la derrota del campeón mundial de ajedrez Gary Kasparov a manos de Deep Blue, un computador de IBM.
Para 2010, el crecimiento de la Inteligencia Artificial se dio gracias al avance en el aprendizaje profundo o Deep Learning. En esencia, es una rama del aprendizaje automático basada en redes neuronales artificiales en las que se utilizan múltiples capas de procesamiento para extraer de los datos características de nivel progresivamente superior, logrando grandes avances en el reconocimiento de imágenes, procesamiento del lenguaje natural, juegos y más.
Pero la última revolución viene del procesamiento del lenguaje natural (NLP) surgido en la segunda década de este siglo con los modelos de lenguaje basados en transformadores como BERT y GPT de 2018. Dentro del surgimiento de estos grandes modelos de lenguaje merece destacar al más popular de todos y responsable de la popularización de la Inteligencia Artificial Generativa: ChatGPT.
Lanzado al mercado el 30 de noviembre de 2022, ChatGPT fue desarrollado por OpenAI, un emprendimiento de San Francisco fundado en 2015. Tras su aparición, también se dieron a conocer otras plataformas de IA impulsadas por empresas como Google, Amazon y Meta, por solo mencionar algunas de ellas.
Fundamentos de la Inteligencia Artificial
Dada su complejidad, la Inteligencia Artificial tiene varias características que la definen, además de componentes y subdivisiones que la integran, trabajan en conjunto y evolucionan a lo largo de los años.
Después de todo, cuando hablamos de Inteligencia Artificial también hablamos de redes neuronales, Deep Learning, Machine Learning, Datasets, sistemas de aprendizaje, robótica y sistemas expertos, entre otros.
Definición y Conceptos Clave
IBM define las cualidades de la Inteligencia Artificial en cuatro grandes áreas:
- 1. Entendimiento: La IA comprende su dominio. Lo hace principalmente a través de los datos, tanto estructurados como no estructurados, basados en texto o sensoriales, en contexto y significado, a velocidad y volumen.
- 2. Razonamiento: La IA razona para alcanzar objetivos concretos. Tiene la capacidad de formar hipótesis mediante argumentos ponderados y recomendaciones priorizadas para ayudar a los humanos a tomar mejores decisiones.
- 3. Aprendizaje: La IA aprende continuamente a través de la experiencia. Adquiere y acumula datos y conocimientos de cada interacción en todo momento. Está entrenada, no programada, por expertos que mejoran, amplían y aceleran sus conocimientos. Por tanto, estos sistemas mejoran con el tiempo.
- 4. Interacción: La IA interactúa de forma natural con las personas y los sistemas. Se espera que el modelo de interacción de una IA fluya discretamente mientras construye continuamente una relación sostenible entre ella y sus usuarios.
Componentes Esenciales
La Inteligencia Artificial como la conocemos en la actualidad está compuesta por una serie de pilares, técnicas y subdivisiones que trabajan en conjunto para obtener mejores resultados. Por ejemplo, la visión computarizada más las redes neuronales permiten el reconocimiento de objetos y verificación de identidad. Se trata de un trabajo en conjunto basado en componentes como:
- Machine Learning: ML o aprendizaje automático, como su nombre indica, son sistemas que aprenden a llevar a cabo tareas sin instrucciones explícitas, basándose en patrones e inferencias.
- Deep Learning: También conocido como aprendizaje profundo, es una parte del ML que aprende procesando datos con la ayuda de redes neuronales artificiales.
- Procesamiento del Lenguaje Natural (PLN): Muy de moda en estos días, es una técnica que permite a los computadores comprender, reconocer, interpretar y producir el lenguaje y el habla de los seres humanos.
- Visión por Computador: La visión por computador emplea el aprendizaje profundo y la identificación de patrones para interpretar el contenido de las imágenes.
- Computación Cognitiva: Es un subconjunto de la inteligencia artificial que utiliza herramientas tecnológicas para simular el proceso de pensamiento humano.
Otro elemento primordial son los Datasets o conjuntos de datos empleados para entrenar los modelos de IA. Piensen en ellos como los datos que alimentan a las IA. De esta forma, para crear buenas IA sin sesgos y acertadas es indispensable entregarles conjuntos de datos de calidad.
Tipos de Inteligencia Artificial
Así como existe una variedad de tendencias y componentes dentro de la Inteligencia Artificial, también existen varios tipos de IA según su capacidad de procesamiento, formas de aprender y tratar los datos, etc.
IA Débil vs. IA Fuerte
Aunque ChatGPT y Google Gemini son las puntas de lanza en Inteligencia Artificial Generativa (GenAI), lo cierto es que son muy limitadas y entrarían en la categoría conocida como IA débil o estrecha. Como su nombre indica, trabajan en rangos muy limitados y operan para realizar ciertas labores muy específicas para las cuales fueron diseñadas. También es conocida como ANI (Artificial Narrow Intelligence).
Por el contrario, la Inteligencia Artificial Fuerte o Inteligencia Artificial General (AGI o Artificial General Intelligence) operaría en un espectro mucho más amplio, permitiéndole razonar e investigar por sí misma para resolver problemas, averiguando respuestas más allá de la mera búsqueda en conjuntos de datos limitados. Esta IA por ahora no existe y es solo teórica.
También teórica, algunos hablan de la ASI (Artificial Super Intelligence) o una superinteligencia artificial que superaría las cualidades cognitivas y de aprendizaje de la inteligencia humana.
IA Simbólica
¿Se imagina que las computadoras procesaran información usando la lógica en lugar de la matemática? Bien, este es el enfoque de la IA simbólica que, como su nombre lo indica, busca construir una IA basada en representaciones de alto nivel de los problemas: símbolos.
Gartner habla incluso de IA neuro-simbólica, que es una forma de Inteligencia Artificial que combina métodos de aprendizaje automático y sistemas simbólicos para crear modelos de IA más sólidos y fiables.
Esta combinación permite combinar patrones estadísticos con reglas y conocimientos definidos explícitamente para dotar a los sistemas de IA de la capacidad de representar, razonar y generalizar mejor los conceptos. Este enfoque proporciona una infraestructura de razonamiento para resolver con mayor eficacia una gama más amplia de problemas empresariales.
Aprendizaje Automático en Inteligencia Artificial
Aunque la Inteligencia Artificial y el aprendizaje automático (ML o Machine Learning) están íntimamente ligados, muchas veces se mencionan por separado por la tremenda importancia del ML. En sí, el aprendizaje automático es una forma de utilizar la IA que da a los computadores la capacidad de aprender sin ser programados explícitamente.
Porque aunque pueden darse todas las instrucciones para que una máquina funcione, esta labor puede ser muy larga y compleja, más aún entre más variables tenga el campo de estudio. En este escenario, ¿por qué no dejar que la máquina aprenda por sí misma? Así encontramos las tres grandes formas de aprendizaje de la IA:
- Aprendizaje Supervisado
- Aprendizaje No Supervisado
- Aprendizaje por Refuerzo
Aprendizaje Supervisado
El aprendizaje supervisado tiene una IA que aprende a partir de ejemplos etiquetados proporcionados durante el entrenamiento. Se le llama supervisado porque requiere de un ser humano que se encargue de etiquetar dichos datos.
Esta técnica es particularmente útil en campos como los servicios financieros y la evaluación de riesgos. También se utiliza para aplicaciones como el procesamiento de lenguaje natural, el análisis predictivo, la clasificación de datos (como sucede con el spam del correo) y con regresiones en los datos, facilitando predicciones meteorológicas y los cambios en los precios.
Aprendizaje No Supervisado
La segunda, no supervisada, aprende con datos sin etiquetar, encontrando patrones y estructuras inherentes en los mismos. Es llamada no supervisada porque no requiere intervención humana y se destaca por descubrir patrones sin ninguna orientación o instrucción explícita.
Mientras el aprendizaje supervisado se destaca por su exactitud, el no supervisado brilla por su capacidad. Es decir, por sus características, es usado para tareas de procesamiento más complejas como la organización de conjuntos de datos grandes en clústeres.
Por cierto, esta técnica de clústeres es usada en campos tan diversos como la segmentación de clientes, la detección de fraudes y el análisis de imágenes.
Aprendizaje por Refuerzo
En el aprendizaje por refuerzo (RL), la IA aprende a través de ensayo y error, recibiendo recompensas cuando acierta y castigos cuando falla. Así, los algoritmos de RL aprenden de los comentarios de cada acción y descubren por sí mismos las mejores opciones.
En esta división no se requiere de un conjunto de datos estáticos, sino que se opera en entornos dinámicos y se aprende de experiencias recopiladas. A diferencia del aprendizaje supervisado y no supervisado, se elimina la necesidad de recopilar, preprocesar y etiquetar datos antes del entrenamiento.
Aprendizaje Profundo
También conocido como Deep Learning, es una parte del aprendizaje automático que utiliza redes neuronales multicapa, denominadas redes neuronales profundas, para simular el poder de decisión del cerebro humano.
Sus orígenes vienen desde mediados del siglo XX (1943 para ser exactos) cuando Warren McCulloch y Walter Pitts crearon un modelo computacional para redes neuronales basado en matemáticas y algoritmos denominado ‘Threshold Logic’.
Actualmente, se encuentra en toda clase de actividades y es que brilla en la automatización de tareas que habitualmente requieren inteligencia humana. Algunos casos de uso sofisticados son en los vehículos autónomos, los sistemas de defensa y en el análisis de imágenes médicas para detectar automáticamente las células cancerosas, entre otras aplicaciones.
Redes Neuronales y Deep Learning
Las redes neuronales son el corazón del Deep Learning, la tecnología utilizada como base en su forma de procesamiento, que por cierto, requiere una enorme potencia de cálculo utilizando chips especializados en procesamiento paralelo, como las unidades de procesamiento gráfico (GPU).
Por esta razón, fabricantes de GPU para videojuegos como Nvidia se posicionaron como indispensables en los centros de datos especializados en Inteligencia Artificial. Aparte de este poder de cómputo, el procesamiento requiere de grandes cantidades de memoria RAM.
Arquitecturas de Redes Neuronales
En esencia, toda red neuronal tiene tres capas: una de entrada, otra de salida y una oculta dispuesta entre las dos anteriores. La capa de entrada se encarga de clasificar e identificar la información para pasarla al siguiente nivel. La capa intermedia puede ser enorme, involucrando muchos niveles que procesan los datos y los pasan a otras capas. Por último, la capa de salida es la que entrega los resultados.
Esta conexión de datos interconectados se conoce como ‘propagación hacia adelante’. También existe otro modelo llamado retropropagación, que usa algoritmos para calcular errores moviéndose en el sentido inverso. La mezcla de estas dos técnicas permite hacer predicciones y corregir errores.
Entrenamiento de Redes Neuronales
Documentos de OpenAI demuestran cómo el entrenamiento de una red neuronal es un proceso repetitivo donde, en cada iteración, se hace una pasada hacia adelante a través de las capas para calcular una salida para cada ejemplo de entrenamiento en un lote de datos. Posteriormente, se realiza otra pasada en sentido inverso, propagando cuánto afecta cada parámetro a la salida final.
En sí, las redes neuronales son versiones más sencillas del procesamiento del cerebro humano, donde se reemplazan las neuronas por nodos y las señales electroquímicas por funciones matemáticas. Por cierto, las redes neuronales profundas necesitan mucho más entrenamiento en comparación con otros métodos de Machine Learning.
Aplicaciones de Deep Learning
El Deep Learning sobresale por su inmensa capacidad de procesamiento, identificando patrones y aprendiendo por sí mismo, lo que la hace ideal en aplicaciones empresariales como:
- Sistemas de recomendación: Desde compras en línea hasta películas, el Deep Learning permite anticiparse a los deseos de los usuarios según sus gustos.
- Detección de fraude: Encontrando intentos de sesión en circunstancias extrañas para el comportamiento usual de cada cliente.
- Servicio de atención al cliente: Potenciando a los chatbots y plataformas de atención con datos personalizados y mejorando la experiencia del cliente.
- Servicios financieros: Esencial para la gestión de riesgos y recomendando alternativas de inversión y préstamos.
- Salud: Ofreciendo posibles tratamientos y reconociendo imágenes que llevan a diagnósticos médicos más precisos.
- Procesamiento del lenguaje natural: Alimentando el poder de cómputo de los modelos de lenguaje usados en la actualidad.
- Reconocimiento facial: Reconociendo características en imágenes y vídeos, haciendo posible la biometría.
Procesamiento del Lenguaje Natural (NLP)
Desde asistentes de teléfonos inteligentes como Siri y parlantes como Alexa, o en los chatbots disponibles en plataformas de comercio electrónico, el procesamiento del lenguaje natural está tan mezclado en la informática que muchos lo han usado sin percatarse.
En términos simples, se trata de una rama de la IA que utiliza el aprendizaje automático para que los ordenadores comprendan el lenguaje humano y se comuniquen con él, y se aplica tanto al texto escrito como al habla.
El NLP es uno de los grandes pilares sobre los cuales se ha construido la Inteligencia Artificial Generativa, que, de la mano de los grandes modelos de lenguaje (LLM), se ve en plataformas como Stability AI, Dall-E y CoPilot, por mencionar algunas.
Modelos de Lenguaje en NLP
¿Conoce ChatGPT? Se trata de uno de los ejemplos más famosos del mundo del uso de un Gran Modelo de Lenguaje o Large Language Models (LLM). ¿Pero en qué consisten? Básicamente, los modelos de lenguaje o LM son un tipo de programas de inteligencia artificial (IA) que pueden reconocer, generar texto e incluso predecir cuáles son las siguientes palabras en una oración, entre otras tareas.
Los LLM se entrenan con enormes conjuntos de datos, de allí el origen de su nombre: ‘grandes’ o ‘large’. Para ser más exactos, son aplicaciones de Machine Learning y, en particular, de un tipo de red neuronal llamada modelo transformador.
Por cierto, el GPT de ChatGPT proviene de esto y significa Generative Pre-trained Transformer o modelos generativos pre-entrenados. Otros componentes clave de un LM son la arquitectura del transformador, sus tokens, ventana contextual y la red neuronal usada (con su número de parámetros).
Aplicaciones de Procesamiento del Lenguaje Natural
El procesamiento del lenguaje natural es un mercado gigantesco que estará en 2024 en 29.710 millones de dólares anuales, una cifra que superará con creces en 2032 cuando se proyecta que alcanzará los 158.040 millones de dólares, según analistas de Fortune Business Insight.
Para entender el enorme impacto de los modelos de lenguaje y del NLP, basta mirar algunas aplicaciones prácticas de esta tecnología:
- Chatbots: Antes torpes y poco flexibles, los chatbots dotados de las nuevas herramientas de IA ya son capaces de entender el significado de sus interlocutores y darles respuestas relevantes y personalizadas.
- Autocompletar en motores de búsqueda: Cuando intenta escribir algo en internet y el navegador se anticipa a sus deseos es gracias al NLP, que intenta predecir la siguiente palabra.
- Filtros anti-spam en el email: ¿Alguna vez ha mirado la carpeta de spam de su correo? La cantidad de mensajes que llega es gigantesca y le quitaría mucho tiempo a los usuarios leyendo mensajes no relevantes, publicitarios o incluso engañosos. El NLP nos ayuda con una selección previa.
- Asistentes de voz: Ya sea Siri, Alexa, o Google, entre otros, el NLP es el secreto que les permite a estas plataformas entender los deseos de los usuarios e interactuar con ellos.
- Texto predictivo: Cuando chatea en WhatsApp y se sugieren palabras, eso es NLP, una tecnología para ahorrar tiempo y mejorar la experiencia del usuario.
- Traductores y correctores: Capaces de facilitar la traducción de forma casi instantánea, de mejorar la calidad y tono de los mensajes, así como de generar resúmenes automáticamente de las reuniones.
- Análisis de sentimientos en redes: Las redes sociales producen demasiada información para ser analizada por un ser humano, pero no para una IA que no solo entiende lo que dicen los internautas, también los clasifica.
Visión por Computadora en la IA
Para la firma analista Deloitte, la visión por computadora o Computer Vision es una aplicación de inteligencia artificial basada en datos que permite a los ordenadores extraer información significativa de imágenes y vídeos mediante sofisticados modelos de aprendizaje automático.
En esta técnica, los computadores utilizan el aprendizaje profundo (Deep Learning) para formar redes neuronales que guíen a los sistemas en su procesamiento y análisis de imágenes.
Por su parte, Microsoft la define como un campo de la informática que se centra en capacitar a los ordenadores para identificar y comprender objetos y personas en imágenes y vídeos. “Al igual que otros tipos de IA, la visión por computador busca realizar y automatizar tareas que reproduzcan las capacidades humanas. En este caso, la visión por computador trata de reproducir tanto la forma en que los humanos ven como la forma en que dan sentido a lo que ven”.
Más exactamente, la visión por computadora permite:
- Reconocimiento de patrones: El reconocimiento de patrones es una parte fundamental de la visión por computadora que permite reconocer y clasificar objetos y formas, incluso desde distintos ángulos e identificar patrones aunque estén parcialmente oscurecidos.
- Detección de objetos: Utilizada en múltiples campos desde la seguridad hasta el control de calidad en las fábricas, permitiendo detectar daños en la misma cadena de producción. En sí, esta aplicación de la visión por computadora puede clasificar imágenes para identificar una determinada clase de objeto o parámetros y, a continuación, detectar y tabularlos o generar otras acciones.
- Segmentación de imágenes: Para procesar las imágenes de forma más rápida y eficiente se usa esta técnica. La segmentación de imágenes permite dividir una imagen en diferentes regiones de píxeles o segmentos para facilitar su detección.
Aplicaciones de la Inteligencia Artificial
Por su flexibilidad, la Inteligencia Artificial puede estar presente en innumerables verticales del mercado y, con el paso de los años, su presencia se hará incluso más fuerte. Sin embargo, algunas de las principales aplicaciones actuales son:
En la industria
Mediante la creación de gemelos digitales, es posible realizar prototipos de forma más rápida y con menores costos, facilitando la innovación y el desarrollo de nuevos productos y servicios.
En las finanzas
La Inteligencia Artificial se utiliza de forma exitosa en la industria financiera y de seguros para la detección de fraudes y anormalidades, ahorrando miles de millones de dólares y mejorando el bienestar de millones de usuarios.
En la medicina
La IA puede salvar millones de vidas al detectar y predecir anomalías que podrían pasar desapercibidas para los médicos, posibilitando el diagnóstico precoz de enfermedades como el cáncer o las cardiopatías que no son fácilmente detectables.
En el transporte
Los coches autónomos necesitan la IA no solo para mejorar su rendimiento, sino también para la conducción a través de sus sistemas de visión por computadora. Esta es una tendencia que apenas está en sus inicios.
En la robótica
La Inteligencia Artificial permitirá dejar las labores riesgosas, repetitivas y pesadas a las máquinas, salvando vidas y evitando lesiones. Además, las máquinas pueden trabajar las 24 horas del día, todos los días del año.
En la seguridad
La detección de anomalías no solo permitirá reaccionar ante incidentes de seguridad, sino también detectar fugas, incendios, cortocircuitos e inundaciones.
Ética y Regulación en la IA en Colombia y en el mundo
El uso masivo o democratización de la Inteligencia Artificial, generada por plataformas en Internet como ChatGPT, Claude, Stable Diffusion, Sora y Gemini, ha provocado una explosión en la generación de contenido a partir de múltiples fuentes, algunas de ellas sin la autorización de los usuarios. ¿Entonces, de quién son los datos y cuál es su calidad?
Desafíos éticos en la IA
La Inteligencia Artificial depende directamente de los datos que se le proporcionan para operar. Esto significa que si los datos muestran sesgos, imprecisiones o errores, la IA partirá con sesgos y visiones distorsionadas de la realidad.
Estas impresiones impulsan la necesidad de establecer principios éticos al crear nuevas IA. La UNESCO ha publicado algunos de los retos más desafiantes en este campo, como son:
- IA sesgada: Desde prejuicios sexistas o racistas, la inteligencia artificial en los motores de búsqueda puede ofrecer resultados sesgados basándose en el historial de navegación de los usuarios, los resultados con más clics o su ubicación.
- IA en la justicia: Ya se han registrado casos en los que plataformas de Inteligencia Artificial han inventado información sobre casos que nunca han existido. Sin embargo, su uso permitirá ahorrar tiempo y evitar errores humanos en sistemas ya sobrecargados. ¿Hasta dónde se debe usar y en qué campos?
- IA en el arte: ¿Qué es el arte? ¿Puede una máquina usar las obras de otros autores como ‘inspiración’ para elaborar una nueva obra y que esta no sea considerada plagio? ¿Hasta qué punto la pueden usar nuevos artistas sin violar los derechos de otras obras?
- Desempleo: La automatización generada por la IA creará nuevos empleos, pero también significará olas de despidos, un dilema ético resaltado por el Foro Económico Mundial.
Pero estos son apenas una parte de los retos, sin hablar del impacto en la educación, la ciberseguridad, el uso en conflictos armados y el ciberactivismo, entre otros. Este es un tema que apenas estamos comenzando a debatir.
Marco legal y regulaciones en Colombia
Aunque Colombia adoptó de forma temprana las recomendaciones de la UNESCO respecto a la ética en la Inteligencia Artificial en las instituciones gubernamentales, su regulación todavía está en camino. Sin embargo, es destacable la iniciativa de la creación del Marco Ético para la Inteligencia Artificial (IA) en 2021.
En este marco, se destacaron una serie de principios clave para el desarrollo de la IA, como son:
- Transparencia
- Privacidad
- Control humano de las decisiones propias de un sistema de IA
- Seguridad
- Responsabilidad
- No discriminación e inclusión
- Prevalencia de los derechos de los niños
- Beneficio social en su uso
Es importante recordar que en 2019 el gobierno desarrolló una Política Nacional para la Transformación Digital e Inteligencia Artificial contenida en el documento CONPES 3975.
Desafíos y Limitaciones de la Inteligencia Artificial
La Inteligencia Artificial tiene tantos beneficios e impacto en tantos sectores productivos y sociales que, a ratos, es fácil olvidar que, como toda tecnología, tiene limitaciones y retos, algunos viejos, otros nuevos y otros generados por su uso. Y para empezar, está el más simple de todos: demasiadas expectativas.
La Inteligencia Artificial es costosa, consume energía en forma abrumadora, requiere monitoreo constante para corregir las alucinaciones y, como si fuera poco, es capaz de aumentar los prejuicios sociales. Pero entremos en materia con algunos de los retos más conocidos:
Sesgos y equidad en la IA
Si no se tiene cuidado en la forma en que hacemos la IA accesible para todos, esto puede aumentar aún más la brecha digital entre los países. Como consecuencia, al tener menos presencia e interacción en el mundo digital, se perderán más voces y se generarán prejuicios.
Interoperabilidad e integración de los modelos
Existen modelos y plataformas de IA para diferentes campos, pero ¿cuál usar en cada escenario? Existe un desafío respecto a la interoperabilidad de los datos y sus plataformas, que requiere de una planificación estratégica y cuidadosa de las organizaciones.
Riesgos de seguridad en la IA
Por su popularidad, la IA también es un blanco y lo más irónico es que existen herramientas generadas por IA para atacar sistemas de IA. Se trata de un círculo vicioso donde es necesario estar al frente e incluir la ciberseguridad desde el mismo diseño con diferentes salvaguardas para todos los escenarios.
Automatización y el empleo
Se trata de un problema ético que apenas estamos abordando. La IA generará una ola de reskilling o reciclaje profesional, donde se capacitará a los trabajadores para asumir nuevos puestos, pero esta transición generará molestias e incertidumbre.
Futuro de la Inteligencia Artificial
Aunque nadie puede predecirlo con certeza, el futuro de la Inteligencia Artificial es un tema que tiene ocupados a miles de firmas. Por ejemplo, McKinsey y otros analistas han comparado el auge de la IA con la Revolución Industrial, el desarrollo de la electricidad y el vapor.
Su impacto afectará innumerables verticales al punto que algunos analistas lo vinculan con la singularidad. Recordemos que, según Raymond Kurzweil, este concepto trata de “un periodo futuro durante el cual el ritmo del cambio tecnológico será tan rápido y su impacto tan profundo, que la vida humana será transformada irreversiblemente”.
Tendencias emergentes en IA
Lo más interesante de tendencias como la Inteligencia Artificial es que no se detienen e incorporan otras tecnologías para potenciarlas. Por ejemplo, el IoT permitirá a las IA recibir más información de los dispositivos inteligentes, lo que le permitirá generar modelos más precisos.
Otro caso son los automóviles de Tesla y otros fabricantes, que están recogiendo información para mejorar los algoritmos de conducción que podrían vender a otras firmas o gobiernos.
La robótica y la IA podrían ayudar a detectar y prevenir más enfermedades y generar nuevos medicamentos. Además, la robótica de servicio podría potenciar a los asistentes personales, dándoles más herramientas de interacción con el entorno.
El Metaverso podría ser los colegios del futuro potenciados por la IA. Además, los NPC o personajes no jugables de los mundos digitales y videojuegos podrían generar sus propios diálogos dependiendo de cada situación, entre otras posibilidades.
Dónde especializarse en IA en Colombia
La Inteligencia Artificial en Colombia se puede estudiar de varias formas, ya sea en formatos de posgrado, pregrado o en certificaciones y cursos independientes. En lo que se refiere al estudio formal, desde la academia y en pregrado, solo se puede realizar en 2 universidades del país: la Universidad Sergio Arboleda de Bogotá y la Universidad Industrial de Santander (UIS).
Más opciones se ofrecen en la modalidad de posgrado, donde existen 2 grandes opciones: especialización o maestría. En la primera de ellas, se destacan universidades como la Universidad Javeriana de Bogotá, la Autónoma de Occidente, Uniminuto y la Universidad Nacional.
Gráfico: La República.
Como es de esperarse, el estudio más avanzado y en profundidad de la IA en el país se ofrece en la modalidad de maestría, con las ofertas de la Universidad Javeriana de Bogotá y la Universidad de los Andes.
Conclusiones
La Inteligencia Artificial es la frase del momento. No es algo nuevo, viene desde los años 50, pero su desarrollo ha llegado a un punto tal que los productos han salido de los grandes laboratorios, academias y empresas para beneficiar de forma más palpable a los usuarios finales.
Gracias al surgimiento de plataformas como ChatGPT, Gemini y Claude, entre otros, se ha llegado a un punto en el que se habla de la democratización de la IA, una frase que ha llevado muchas cosas positivas para su desarrollo, pero al mismo tiempo ha generado expectativas a veces alejadas de la realidad, idealizadas, o incluso apocalípticas.
En particular, el principal responsable de esta popularización en la actualidad tiene un nombre propio: Inteligencia
Artificial Generativa (GenAI), capaz de generar contenido a partir de los datos con que se alimente y con representantes como Sora en video, DALL-E 2 en generación de imágenes y Perplexity AI en texto, entre varias ofertas.
Sin embargo, la GenAI es apenas una de las aristas de la IA, ya que esta tecnología se viene usando desde hace años para predecir la rentabilidad de préstamos, el comportamiento de los consumidores y para recomendar productos (Amazon, Netflix).
El impacto futuro de la IA es prometedor, tanto que algunos ya profetizan la llegada de supercomputadoras con un intelecto superior al de los seres humanos. Sin embargo, es conveniente recordar que la IA es solo una tecnología y, como tal, puede ser usada en toda clase de fines, desde aquellos que benefician a la sociedad hasta aquellos que van en su contra. Debemos prepararnos para usarla con principios éticos y para el bien de todos.
Resumen de los Aspectos Clave
- La IA no es algo nuevo; ha sido usada por investigadores, gobiernos y empresas desde hace décadas.
- Actualmente estamos en la Inteligencia Artificial débil, aún no hemos llegado a la IA fuerte.
- La Inteligencia Artificial Generativa es apenas una rama de la IA.
- La Inteligencia Artificial destruirá empleos, pero también generará otros.
- La IA solo es tan buena como los datos con los cuales se alimenta; por ello, la calidad de los datos es crítica.
- La IA opera idealmente en roles repetitivos o donde existen riesgos de error humano.
- Hasta el momento, la IA puede cometer errores y puede sufrir alucinaciones.
- La IA se está desarrollando a pasos agigantados entre varios jugadores, especialmente: OpenAI, Google Gemini, Anthropic y Meta (Llama), pero no son los únicos.
Referencias
Fuentes Consultadas y Citadas
Algunas de las fuentes tomadas en cuenta para este texto son: