Inteligencia artificial
La inteligencia artificial, abreviado como IA, en el contexto de las ciencias de la computación, es una disciplina y un conjunto de capacidades cognoscitivas e intelectuales expresadas por sistemas informáticos o combinaciones de algoritmos cuyo propósito es la creación de máquinas que imiten la inteligencia humana.
Estas tecnologías permiten que las máquinas aprendan de la experiencia, se adapten a nuevas entradas y realicen tareas como el reconocimiento de voz, la toma de decisiones, la traducción de idiomas o la visión por computadora.[1][2]
En la actualidad, la inteligencia artificial abarca una gran variedad de subcampos. Estos van desde áreas de propósito general, aprendizaje y percepción, a otras más específicas como el reconocimiento de voz, el juego de ajedrez, la demostración de teoremas matemáticos, la escritura de poesía y el diagnóstico de enfermedades. La inteligencia artificial sintetiza y automatiza tareas que en principio son intelectuales y, por lo tanto, es potencialmente relevante para cualquier ámbito de actividades intelectuales humanas. La IA se encuentra en constante evolución gracias al desarrollo de tecnologías como el aprendizaje profundo, redes neuronales y procesamiento del lenguaje natural, lo cual permite un avance acelerado en su capacidad para resolver problemas complejos.[3]
La arquitectura de las inteligencias artificiales y los procesos por los cuales aprenden, se mejoran y se implementan en algún área de interés que varía según el enfoque de utilidad que se les quiera dar, pero de manera general, estos van desde la ejecución de sencillos algoritmos hasta la interconexión de complejas redes neuronales artificiales que intentan replicar los circuitos neuronales del cerebro humano y que aprenden mediante diferentes modelos de aprendizaje tales como el aprendizaje automático, el aprendizaje por refuerzo, el aprendizaje profundo y el aprendizaje supervisado.[4]
Por otro lado, el desarrollo y aplicación de la inteligencia artificial en muchos aspectos de la vida cotidiana también ha propiciado la creación de nuevos campos de estudio como la roboética y la ética de las máquinas, que abordan aspectos relacionados con la ética en la inteligencia artificial y que se encargan de analizar cómo los avances en este tipo de tecnologías impactarían en diversos ámbitos de la vida, así como el manejo responsable y ético que se les debería dar a los mismos, además de establecer cuál debería ser la manera correcta de proceder de las máquinas y las reglas que deberían cumplir.[5][6]
En cuanto a su clasificación, tradicionalmente se divide a la inteligencia artificial en inteligencia artificial débil, la cual es la única que existe en la actualidad y que se ocupa de realizar tareas específicas, e inteligencia artificial general, que sería una IA que excediese las capacidades humanas. Algunos expertos creen que si alguna vez se alcanzara este nivel, se podría dar lugar a la aparición de una singularidad tecnológica, es decir, una entidad tecnológica superior que se mejoraría a sí misma constantemente, volviéndose incontrolable para los humanos, dando pie a teorías como el basilisco de Roko.[7]
Algunas de las inteligencias artificiales más conocidas y utilizadas en la actualidad alrededor del mundo incluyen inteligencia artificial en el campo de la salud, asistentes virtuales como Alexa, el asistente de Google o Siri, traductores automáticos como el traductor de Google y DeepL, sistemas de recomendación como el de la plataforma digital de YouTube, motores de ajedrez y otros juegos como Stockfish y AlphaZero, chatbots como ChatGPT, Gemini, creadores de arte de inteligencia artificial como Midjourney, Dall-e, Leonardo y Stable Diffusion, e incluso la conducción de vehículos autónomos como Tesla Autopilot.[8]
Breve historia de la inteligencia artificial[editar | editar código]
En la historia de la IA se pueden distinguir tres fases principales: 1) IA clásica, 2) IA estadística y aprendizaje automático, y 3) IA generativa. Estas tres tecnologías no son todas las formas de IA que existen, pero proporcionan una buena visión general de la IA. La IA clásica aportaba reglas estrictas y restricciones. La IA estadística hizo que los sistemas fueran más adaptativos, pero aún limitados al análisis. La IA generativa abrió la puerta a la flexibilidad y a lo que podríamos percibir como creatividad. Cada paso a lo largo de ese camino aportó más flexibilidad, pero también más imprevisibilidad.
Inteligencia artificial clásica[editar | editar código]
Estos sistemas se construían en torno a la lógica simbólica: cosas como reglas si-entonces, árboles de decisión y sistemas de producción. Imaginemos un sistema de diagnóstico automotriz que diga: «Si el motor no arranca y el voltaje de la batería es bajo, entonces reemplace la batería». Eso es IA clásica. Todo tenía que ser codificado manualmente por expertos. Muchas veces construimos estos sistemas observando lo que hacen los expertos y traduciendo ese conocimiento a código. Estos sistemas funcionaban bien en dominios limpios y bien definidos, como jugar ajedrez o calcular impuestos. Y siguen siendo muy potentes, porque pueden tomar tareas rutinarias que a las personas les lleva cierto tiempo realizar y repetirlas mucho más rápido. Pensemos en la rapidez con la que una calculadora puede graficar una ecuación: lo hace calculando por separado miles de puntos. Un ser humano también podría hacerlo, pero tardaría mucho más.
Sin embargo, el enfoque basado en reglas tiene desventajas importantes. Los sistemas basados en reglas pueden ser frágiles: si una situación no coincidía exactamente con una regla, el sistema fallaba. También pueden ser laboriosos de crear: había que escribir cada regla manualmente. Además, estos sistemas tienen dificultades con la ambigüedad, ese tipo de imprecisión que vemos constantemente en el mundo real. Es difícil imaginar que muchas aplicaciones modernas de la inteligencia artificial tengan éxito únicamente con sistemas basados en reglas. Imaginemos un automóvil autónomo que necesitara un conjunto de reglas independiente para cada posible combinación de situaciones. Eso no significa que los sistemas basados en reglas ya no sean relevantes: siguen siendo muy importantes. Pero necesitan otras tecnologías que les ayuden a manejar esa ambigüedad.
Inteligencia artificial estadística[editar | editar código]
En este paradigma, entrenamos a las computadoras para que encuentren patrones en los datos en lugar de escribir reglas nosotros mismos. Aquí es donde el aprendizaje automático realmente despegó. Imaginemos intentar usar un sistema basado en reglas para diseñar un automóvil autónomo que se detenga ante las señales de alto: habría que contemplar por separado todas las distintas formas en que una señal de alto podría estar oculta o verse desde diferentes ángulos. Pero si, en cambio, alimentamos a una computadora con miles de imágenes etiquetadas como que contienen o no una señal de alto, puede empezar a inferir por sí sola cómo se ve una señal de alto en el mundo real. De hecho, esta es la razón por la que muchos de los captchas originales pedían a los usuarios identificar qué imágenes contenían señales de alto, semáforos o autobuses escolares: estábamos entrenando sistemas de IA para reconocer estas cosas en el mundo real.
Ahora bien, este tipo de aprendizaje automático adoptó varias formas. En el aprendizaje supervisado, el modelo aprende a partir de ejemplos etiquetados: podemos decirle a la computadora qué imágenes contienen señales de alto y cuáles no. En el aprendizaje no supervisado, el sistema intenta encontrar estructura en datos no etiquetados: podríamos simplemente proporcionarle un conjunto de imágenes, y trataría de agruparlas según similitudes percibidas; esto podría incluir, por ejemplo, si contienen octágonos rojos. En el aprendizaje por refuerzo, el sistema aprende mediante prueba y error: utiliza lo que sabe hasta el momento para tomar una decisión, y le asignamos una recompensa o un castigo según lo que haga. Podríamos simular un automóvil autónomo con grabaciones de nuestros propios trayectos diarios y otorgarle una recompensa cada vez que identifique correctamente una señal de alto en la ruta.
La IA estadística proporcionó herramientas muy potentes para tareas como la clasificación de imágenes, la traducción de idiomas y los sistemas de recomendación. Sin embargo, estos sistemas no generaban nada verdaderamente nuevo: analizaban y predecían, pero no creaban.
Sin embargo, desde una perspectiva computacional, crear no es sino una forma extremadamente abierta de predecir. Cuando dibujamos una imagen o componemos una canción, en nuestra mente estamos anticipando cómo queremos que sea el resultado final —cómo se verá o cómo sonará— y luego intentamos materializarlo en el mundo. Así, construir una IA capaz de crear a partir de una IA capaz de predecir podría ser, en esencia, una cuestión de cambiar su perspectiva. Esto es lo que lleva a la IA generativa.
Inteligencia artificial generativa[editar | editar código]
La inteligencia artificial generativa utiliza muchos de los mismos principios que la inteligencia artificial estadística, pero los aplica de una manera nueva. La clave está en cómo entendemos la predicción.
La IA estadística se centraba en predicciones como: ¿hacia dónde va a ir ese automóvil? O bien: ¿ese automóvil va a cambiar de carril? O: ¿cuánto debo girar el volante para tomar esta curva?
La IA generativa, en cambio, realiza predicciones como: mi usuario pidió una imagen de un pato de goma robótico, ¿cómo probablemente se vería esa imagen? El espacio de respuestas posibles es muchísimo más grande, pero sigue siendo, en esencia, una tarea de predicción.
Podemos reformular una enorme cantidad de tareas como tareas predictivas. Cuando se le pide a una IA generativa un ensayo sobre las causas de la Segunda Guerra Mundial, lo que hace es predecir cómo probablemente debería ser ese ensayo. Cuando se le pide una canción para el anuncio de una nueva marca de comida para gatos, está predeciendo cómo probablemente debería sonar esa canción. Cuando conversamos con un bot conversacional, eso es realmente lo que ocurre en segundo plano: el modelo actúa como si la conversación ya hubiera sucedido y predice cuál será la siguiente palabra, una palabra a la vez.
La forma más temprana de IA generativa que vio la mayor parte de la población fue el texto predictivo en los teléfonos. Este predecía la siguiente palabra, pero utilizaba un enfoque muy simple llamado cadenas de Markov, en el que el sistema elegía la palabra más probable basándose en una o dos palabras anteriores. Después surgieron las redes generativas antagónicas, comúnmente conocidas como GAN. Estas redes combinaban dos modelos: uno para generar imágenes falsas y otro para evaluar si parecían reales. Las imágenes más convincentes eran recompensadas y, con el tiempo, esta dinámica produjo resultados sorprendentes.
Pero el verdadero punto de inflexión llegó con la introducción de los transformers. Este cambio fue impulsado por una arquitectura de modelo revolucionaria presentada en un artículo de 2017 titulado “Attention Is All You Need”. Ese trabajo propuso los transformers como una nueva base para manejar el lenguaje y los datos secuenciales de manera eficiente. Los transformers permitieron a los modelos procesar secuencias largas y enormes volúmenes de datos de entrenamiento.
Volvamos a esa herramienta de texto predictivo, pero imaginemos que, en lugar de usar solo la palabra o las dos palabras más recientes para predecir la siguiente, utilizara miles de millones de palabras extraídas de millones de contenidos.
Estos transformers se convirtieron en la base de los sistemas generativos modernos. Impulsan la capacidad de la IA generativa para escribir ensayos, generar código y crear imágenes, todo a partir de una sola instrucción. Esto marcó un cambio fundamental. Antes, la IA se entrenaba para tareas específicas. Se necesitaba una IA para etiquetar una imagen, otra para traducir una frase, otra para analizar datos. Con los transformers, en cambio, el mismo modelo puede realizar todas esas tareas sin necesidad de reentrenamiento. No se trata solo de potencia o conocimiento, sino de flexibilidad, y lo que podríamos percibir como creatividad.
Pero con esa creatividad también llega la imprevisibilidad. Un modelo generativo puede ofrecer una explicación brillante o puede alucinar información completamente falsa con total seguridad. Puede ser sorprendentemente rico y sorprendentemente erróneo. Recordemos que solo está haciendo predicciones basadas en lo que ha visto antes.
La inteligencia artificial generativa representa no solo una nueva herramienta, sino una nueva forma de pensar sobre lo que las máquinas pueden hacer.
Denominación[editar | editar código]
En 2019 la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST) de la UNESCO definió la inteligencia artificial como un campo que implica máquinas capaces de imitar determinadas funcionalidades de la inteligencia humana, incluidas características como la percepción, el aprendizaje, el razonamiento, la resolución de problemas, la interacción lingüística e incluso la producción de trabajos creativos.
Coloquialmente, la locución «inteligencia artificial» se aplica cuando una máquina imita las funciones «cognitivas» que los humanos asocian como competencias humanas; por ejemplo: «percibir», «razonar», «aprender» y «resolver problemas».[10] Andreas Kaplan y Michael Haenlein definen la inteligencia artificial como «la capacidad de un sistema para interpretar correctamente datos externos, y así aprender y emplear esos conocimientos para lograr tareas y metas concretas a través de la adaptación flexible».[11] A medida que las máquinas se vuelven cada vez más capaces, se elimina de la definición la tecnología que alguna vez se pensó que requería de inteligencia. Marvin Minsky, uno de los ideadores de la IA, hablaba del término inteligencia artificial como una palabra maleta («suitcase word») porque en él se pueden meter una diversidad de elementos.[12][13]
Por ejemplo, el reconocimiento óptico de caracteres ya no se percibe como un ejemplo de la «inteligencia artificial», habiéndose convertido en una tecnología común.[14] Avances tecnológicos todavía clasificados como inteligencia artificial son los sistemas de conducción autónomos o los capaces de jugar al ajedrez o Go.[15]
La inteligencia artificial es una nueva forma de resolver problemas dentro de los cuales se incluyen los sistemas expertos, el manejo y control de robots y los procesadores, que intenta integrar el conocimiento en tales sistemas; en otras palabras, un sistema inteligente capaz de escribir su propio programa. Un sistema experto definido como una estructura de programación capaz de almacenar y utilizar un conocimiento sobre un área determinada que se traduce en su capacidad de aprendizaje.[16] De igual manera, se puede considerar a la IA como la capacidad de las máquinas para usar algoritmos, aprender de los datos y utilizar lo aprendido en la toma de decisiones tal y como lo haría un ser humano.[17]
Según Takeyas (2007), la IA es una rama de las ciencias computacionales encargada de estudiar modelos de cómputo capaces de realizar actividades propias de los seres humanos con base en dos de sus características primordiales: el razonamiento y la conducta.[18]
En 1956, John McCarthy acuñó la expresión «inteligencia artificial», y la definió como «la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes».[19]
Grau-Luque contrasta diferentes definiciones desde diversas fuentes y autores, destacando que difieren dependiendo de «en qué campo específico se usen».[20]Esto lleva al autor a definir «inteligencia artificial» como «sistemas que llevan a cabo tareas consideradas inteligentes», para luego asociar conceptos como «aprendizaje» y «razonamiento» con el aprendizaje automático como una subdisciplina de la inteligencia artificial.
También existen distintos tipos de percepciones y acciones, que pueden ser obtenidas y producidas, respectivamente, por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno hardware.
Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la capacidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economía, medicina, ingeniería, el transporte, las comunicaciones y la milicia, y se ha usado en gran variedad de programas informáticos, juegos de estrategia, como ajedrez de computador, y otros videojuegos.
Asimismo la inteligencia artificial se está desarrollando en la plataforma digital cada vez más, evolucionando y creando nuevas herramientas, como la plataforma laboral que existe desde el año 2023 llamada SIVIUM, una herramienta por la cual una persona postula en forma automatizada a todas las ofertas laborales de todos los portales de trabajo, sin necesidad de estar revisando cada oferta laboral que se presente y enviar su CV uno por uno.[21]
Tipos[editar | editar código]
Se pueden distinguir dos grandes tipos de inteligencia artificial: discriminativa y generativa.
Inteligencia artificial discriminativa[editar | editar código]
La IA discriminativa se refiere al análisis de datos avanzado convencional y a los algoritmos de aprendizaje automático que son adecuados para la clasificación o la predicción. Estos algoritmos son altamente eficaces para realizar tareas numéricas y de optimización, como el modelado predictivo. Ejemplos de algoritmos de IA discriminativa incluyen el reconocimiento de patrones, el procesamiento del lenguaje natural en tareas específicas, el modelado temático (topic modeling) o las redes neuronales.
La IA discriminativa abarca un amplio espectro de tecnologías que representan diferentes enfoques algorítmicos fundamentales. Estas técnicas de IA discriminativa se pueden clasificar en cinco grupos tecnológicos: aprendizaje automático, lógica difusa, lógica probabilística, ingeniería ontológica y programación lógica.
Inteligencia artificial generativa[editar | editar código]
La inteligencia artificial generativa es una clase de tecnologías de aprendizaje automático que pueden generar contenido nuevo —como texto, imágenes, música o video— mediante el análisis de patrones en datos existentes.[22] Por lo general, se construye sobre la base de modelos fundacionales: modelos de aprendizaje profundo entrenados con enormes cantidades de datos no estructurados y no etiquetados.
La IA generativ es capaz de generar texto, imágenes u otros medios en respuesta a comandos de texto conocidos como "prompts".[23] Un prompt es la instrucción, pregunta o conjunto de indicaciones para que la inteligencia artificial realice la tarea específica. La calidad del prompt influye directamente en la calidad de la respuesta.[24]
Los modelos de IA generativa aprenden los patrones y la estructura de sus datos de entrenamiento de entrada, y luego generan nuevos datos que tienen características similares. Actualmente la IA generativa puede crear texto, imágenes, sonido y vídeo. Los sistemas de IA generativa incluyen bots conversacionales y sistemas de arte de inteligencia artificial que permiten crear imágenes.
Escuelas de pensamiento[editar | editar código]
La IA se divide en dos escuelas de pensamiento: la inteligencia artificial convencional y la inteligencia computacional.
Inteligencia artificial convencional[editar | editar código]
Se conoce también como IA simbólica-deductiva. Está basada en el análisis formal y estadístico del comportamiento humano ante diferentes problemas:
- Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resuelven ciertos problemas concretos y, aparte de que son muy importantes, requieren de un buen funcionamiento.
- Sistemas expertos: Infieren una solución a través del conocimiento previo del contexto en que se aplica y utiliza ciertas reglas o relaciones.[25]
- Redes bayesianas: Propone soluciones mediante inferencia probabilística.[26]
Inteligencia artificial computacional[editar | editar código]
La inteligencia computacional (también conocida como IA subsimbólica-inductiva) implica desarrollo o aprendizaje interactivo (por ejemplo, modificaciones interactivas de los parámetros en sistemas de conexiones). El aprendizaje se realiza basándose en datos empíricos.
La inteligencia computacional tiene una doble finalidad. Por un lado, su objetivo científico es comprender los principios que posibilitan el comportamiento inteligente (ya sea en sistemas naturales o artificiales) y, por otro, su objetivo tecnológico consiste en especificar los métodos para diseñar sistemas inteligentes.[27]
Objetivos[editar | editar código]
Razonamiento y resolución de problemas[editar | editar código]
Los primeros investigadores desarrollaron algoritmos que imitaban el razonamiento paso a paso que los humanos usan cuando resuelven acertijos o hacen deducciones lógicas.[28] A finales de la década de 1981-1990, la investigación de la inteligencia artificial había desarrollado métodos para tratar con información incierta o incompleta, empleando conceptos de probabilidad y economía.[29]
Estos algoritmos demostraron ser insuficientes para resolver grandes problemas de razonamiento porque experimentaron una «explosión combinatoria»: se volvieron exponencialmente más lentos a medida que los problemas crecían.[30] De esta manera, se concluyó que los seres humanos rara vez usan la deducción paso a paso que la investigación temprana de la inteligencia artificial seguía; en cambio, resuelven la mayoría de sus problemas utilizando juicios rápidos e intuitivos.[31]
Representación del conocimiento[editar | editar código]
La representación del conocimiento[32] y la ingeniería del conocimiento[33] son fundamentales para la investigación clásica de la inteligencia artificial. Algunos «sistemas expertos» intentan recopilar el conocimiento que poseen los expertos en algún ámbito concreto. Además, otros proyectos tratan de reunir el «conocimiento de sentido común» conocido por una persona promedio en una base de datos que contiene un amplio conocimiento sobre el mundo.
Entre los temas que contendría una base de conocimiento de sentido común están: objetos, propiedades, categorías y relaciones entre objetos,[34] situaciones, eventos, estados y tiempo[35] causas y efectos;[36] y el conocimiento sobre el conocimiento (lo que sabemos sobre lo que saben otras personas)[37] entre otros.
Planificación[editar | editar código]
Otro objetivo de la inteligencia artificial consiste en poder establecer metas y finalmente alcanzarlas.[38] Para ello necesitan una forma de visualizar el futuro, una representación del estado del mundo y poder hacer predicciones sobre cómo sus acciones lo cambiarán, con tal de poder tomar decisiones que maximicen la utilidad (o el «valor») de las opciones disponibles.[39]
En los problemas clásicos de planificación, el agente puede asumir que es el único sistema que actúa en el mundo, lo que le permite estar seguro de las consecuencias de sus acciones.[40] Sin embargo, si el agente no es el único actor, entonces se requiere que este pueda razonar bajo incertidumbre. Esto requiere un agente que no solo pueda evaluar su entorno y hacer predicciones, sino también evaluar sus predicciones y adaptarse en función de su evaluación.[41] La planificación de múltiples agentes utiliza la cooperación y la competencia de muchos sistemas para lograr un objetivo determinado. El comportamiento emergente como este es utilizado por algoritmos evolutivos e inteligencia de enjambre.[42]
Aprendizaje[editar | editar código]
El aprendizaje automático es un concepto fundamental de la investigación de la inteligencia artificial. Consiste en la investigación de algoritmos informáticos que mejoran automáticamente a través de la experiencia.[43] El aprendizaje automático se enfoca en desarrollar algoritmos de regresión, árboles de decisión y modelos que puedan aprender de datos existentes y realizar predicciones o decisiones basadas en esos datos. En el aprendizaje automático, se utilizan técnicas estadísticas para encontrar patrones y relaciones en los datos y, a partir de ellos, desarrollar modelos que puedan hacer predicciones sobre nuevos datos.
El aprendizaje no supervisado es la capacidad de encontrar patrones en un flujo de entrada, sin que sea necesario que un humano etiquete las entradas primero. El aprendizaje supervisado incluye clasificación y regresión numérica, lo que requiere que un humano etiquete primero los datos de entrada. La clasificación se usa para determinar a qué categoría pertenece algo y ocurre después de que un programa observe varios ejemplos de entradas de varias categorías. La regresión es el intento de producir una función que describa la relación entre entradas y salidas y predice cómo deben cambiar las salidas a medida que cambian las entradas.[43] Tanto los clasificadores como los aprendices de regresión intentan aprender una función desconocida; por ejemplo, un clasificador de correo basura puede verse como el aprendizaje de una función que asigna el texto de un correo electrónico a una de dos categorías, «basura» o «no basura». La teoría del aprendizaje computacional puede evaluar a los estudiantes por complejidad computacional, complejidad de la muestra (cuántos datos se requieren) o por otras nociones de optimización.[44]
El aprendizaje profundo se centra en la creación de redes neuronales artificiales capaces de aprender y realizar tareas de manera similar a como lo hacen los seres humanos. En el aprendizaje profundo, se utilizan capas de neuronas artificiales para procesar los datos de entrada y aprender a través de un proceso iterativo de ajuste de los pesos de las conexiones entre neuronas. Este tipo de aprendizaje es capaz de procesar y analizar grandes cantidades de datos de manera más eficiente y precisa que el aprendizaje automático, especialmente cuando se trata de datos no estructurados, como imágenes, texto y audio. Además, tiene la capacidad de identificar patrones y características más complejas en los datos, lo que puede llevar a mejores resultados en aplicaciones como el reconocimiento de voz, la visión por computadora y el procesamiento del lenguaje natural.
Procesamiento de lenguajes naturales[editar | editar código]
El procesamiento del lenguaje natural[45] permite a las máquinas leer y comprender el lenguaje humano. Un sistema de procesamiento de lenguaje natural suficientemente eficaz permitiría interfaces de usuario de lenguaje natural y la adquisición de conocimiento directamente de fuentes escritas por humanos, como los textos de noticias. Algunas aplicaciones sencillas del procesamiento del lenguaje natural incluyen la recuperación de información, la minería de textos, la respuesta a preguntas y la traducción automática.[46] Muchos enfoques utilizan las frecuencias de palabras para construir representaciones sintácticas de texto. Las estrategias de búsqueda de «detección de palabras clave» son populares y escalables, pero poco óptimas; una consulta de búsqueda para «perro» solo puede coincidir con documentos que contengan la palabra literal «perro» y perder un documento con el vocablo «caniche». Los enfoques estadísticos de procesamiento de lenguaje pueden combinar todas estas estrategias, así como otras, y a menudo logran una precisión aceptable a nivel de página o párrafo. Más allá del procesamiento de la semántica, el objetivo final de este es incorporar una comprensión completa del razonamiento de sentido común.[47] En 2019, las arquitecturas de aprendizaje profundo basadas en transformadores podían generar texto coherente.[48]
Percepción[editar | editar código]
La percepción de la máquina[49] es la capacidad de utilizar la entrada de sensores (como cámaras de espectro visible o infrarrojo, micrófonos, señales inalámbricas y lidar, sonar, radar y sensores táctiles) para entender aspectos del mundo. Las aplicaciones incluyen reconocimiento de voz,[50] reconocimiento facial y reconocimiento de objetos.[51] La visión artificial es la capacidad de analizar la información visual, que suele ser ambigua; un peatón gigante de cincuenta metros de altura muy lejos puede producir los mismos píxeles que un peatón de tamaño normal cercano, lo que requiere que la inteligencia artificial juzgue la probabilidad relativa y la razonabilidad de las diferentes interpretaciones, por ejemplo, utilizando su «modelo de objeto» para evaluar que los peatones de cincuenta metros no existen.[52]
Véase también[editar | editar código]
- AI box
- Aprendizaje
- Aprendizaje automático
- Bot conversacional
- Cerebro artificial
- Cibernética
- Computación basada en humanos
- Computación cuántica
- Dinámica de sistemas
- ELIZA
- Filosofía de la inteligencia artificial
- Inteligencia artificial fuerte
- Inteligencia computacional
- Inteligencia sintética
- Interfaces de usuario
- LLM (modelo grande de lenguaje)
- Neuro-borroso
- Razonamiento automatizado
- Red neuronal artificial
- Singularidad tecnológica
- Sistema complejo
- Sistema dinámico
- Sistema inteligente
- Visión artificial
- Red neuronal residual
- Confabulación (redes neuronales)
- Aprendizaje por conjuntos
- U-Net
Referencias[editar | editar código]
- ↑ «¿Qué es la inteligencia artificial?». Diccionario de informática en la nube de Microsoft Azure. Consultado el 21 de abril de 2023.
- ↑ Real Academia Española. «inteligencia artificial». Diccionario de la lengua española (23.ª edición).
- ↑ Rusell, S. J.; Norvig, P. (2004), «Inteligencia artificial. Un enfoque moderno», Pearson Educación (Segunda edición) (Madrid), ISBN 978-84-205-4003-0.
- ↑ Rodríguez, Txema (27 de enero de 2017). «Machine Learning y Deep Learning: cómo entender las claves del presente y futuro de la inteligencia artificial». Xataka. Consultado el 21 de abril de 2023.
- ↑ Barrio, Miguel Ángel (26 de febrero de 2016). «La importancia de la ética en la inteligencia artificial». El País. Consultado el 21 de abril de 2023.
- ↑ «Assessing potential future artificial intelligence risks, benefits and policy imperatives». OECD (en English). 14 de noviembre de 2024. Consultado el 1 de agosto de 2025.
- ↑ Sabán, Antonio (8 de mayo de 2016). «¿Qué es la singularidad tecnológica y qué supondría para el ser humano?». Hipertextual. Consultado el 21 de abril de 2023.
- ↑ Thompson, Elaine (6 de septiembre de 2019). «10 ejemplos de que ya dependes de la IA en tu vida diaria». BBVA OpenMind. Consultado el 21 de abril de 2023.
- ↑ Bitdefender. «Bitdefender`s Pick. Alan Turing, Father of Artificial Intelligence!». Hot for Security (en en-us). Consultado el 13 de febrero de 2025.
- ↑ , Russell y Norvig, 2009, p. 2.
- ↑ «Andreas Kaplan; Michael Haenlein (2019) Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence, Business Horizons, 62(1), 15-25». Archivado desde el original el 21 de noviembre de 2018. Consultado el 13 de noviembre de 2018.
- ↑ «La Inteligencia artificial en la estrategia | McKinsey». www.mckinsey.com. Consultado el 1 de agosto de 2023.
- ↑ Toews, Rob. «What Does “Artificial Intelligence” Really Mean?». Forbes. Consultado el 1 de agosto de 2023.
- ↑ Schank, Roger C. (1991). «Where's the AI» (PDF). AI Magazine (en inglés) 12 (4): 38.
- ↑ Kaplan, Andreas; Haenlein, Michael (2018). Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence (PDF) (en inglés) 62 (1). Archivado desde el original el 21 de noviembre de 2018. Consultado el 13 de noviembre de 2018.
- ↑ Ferrer Abello (1986). «Introducción a la Inteligencia Artificial». En Antonio M. Ferrer Abello, ed. Inteligencia Artificial y Sistemas Expertos. Ediciones Ingelek, S.A. p. 7-20. ISBN 84-85831-31-4.
- ↑ Rouhiainen, Lasse (2018). Inteligencia Artificial 101 cosas que debes saber hoy sobre nuestro futuro. Alienta. Consultado el 2021.
- ↑ López Takeyas, Bruno. «Introducción a la Inteligencia Artificial». Archivado desde el original el 9 de agosto de 2022. Consultado el 31 de enero de 2018.
- ↑ McCarthy, John (11 de noviembre de 2007). «What Is Artificial Intelligence» (en inglés). Sección «Basic Questions». Consultado el 27 de octubre de 2011.
- ↑ Grau-Luque, Enric (5 de mayo de 2024). Inteligencia artificial, aprendizaje profundo, y por qué las polillas vuelan hacia la luz. ISBN 979-8324882860.
- ↑ «Qué es la Inteligencia Artificial: su fascinante historia y cómo funciona | Servicios». La Voz del Interior. 7 de junio de 2024. Consultado el 1 de abril de 2025.
- ↑ Brynjolfsson, Erik; Li, Danielle; Raymond, Lindsey (2025). «Generative AI at Work». Quarterly Journal of Economics 140 (2): 889-942. Consultado el 19 de febrero de 2026.
- ↑ Ciaramella, Alberto; Ciaramella, Marco (2024). «9». Introduction to Artificial Intelligence: from data analysis to generative AI (en English). Rivoli. ISBN 978-8894787603.
- ↑ Craig, Diego F.; Dellepiane, Paola (2025). PromptIA. Interacción con chats de inteligencia artificial generativa de texto en el ámbito educativo. Pontificia Universidad Católica Argentina. Filosofía de Ciencias Sociales. ISBN 978-950-44-0125-4. Consultado el 22 de agosto de 2025.
- ↑ Castillo, Enrique; Gutiérrez, José Manuel; Hadi, Ali S. (1997). «Introducción». Sistemas expertos y modelos de redes probabilísticas. Academia de Ingeniera. p. 3. Consultado el 16 de noviembre de 2021.
- ↑ Miller Rivera, Lozano (2011). El papel de las redes bayesianas en la toma de decisiones.. Archivado desde edu.co/Administracion/documentos/investigacion/laboratorio/miller_2_3.pdf el original el 3 de octubre de 2022. Consultado el 16 de noviembre de 2021.
- ↑ «¿Qué es la Inteligencia Computacional?».
- ↑ Resolución de problemas, resolución de acertijos, juego y deducción:Russell y Norvig, 2003, c. 3–9,Poole, Mackworth y Goebel, 1998, c. 2, 3, 7, 9,Luger y Stubblefield, 2004, c. 3, 4, 6, 8,Nilsson, 1998, c. 7–12
- ↑ Razonamiento incierto:Russell y Norvig, 2003, pp. 452–644,Poole, Mackworth y Goebel, 1998, pp. 345–395,Luger y Stubblefield, 2004, pp. 333–381,Nilsson, 1998, c. 19
- ↑ Intratabilidad y eficiencia y la explosión combinatoria:Russell y Norvig, 2003, pp. 9, 21–22
- ↑ Evidencia psicológica del razonamiento sub-simbólico:Wason y Shapiro (1966),Kahneman, Slovic y Tversky (1982),Lakoff y Núñez (2000)
- ↑ Representación del conocimiento:ACM, 1998, I.2.4,Russell y Norvig, 2003, pp. 320–363,Poole, Mackworth y Goebel, 1998, pp. 23–46, 69–81, 169–196, 235–277, 281–298, 319–345,Luger y Stubblefield, 2004, pp. 227–243,Nilsson, 1998, c. 18
- ↑ Ingeniería del conocimiento: * Russell y Norvig, 2003, pp. 260–266,Poole, Mackworth y Goebel, 1998, pp. 199–233,Nilsson, 1998, c. 17.1–17.4
- ↑ Representación de categorías y relaciones:Russell y Norvig, 2003, pp. 349–354,Poole, Mackworth y Goebel, 1998, pp. 174–177,Luger y Stubblefield, 2004, pp. 248–258,Nilsson, 1998, c. 18.3
- ↑ Representación de eventos y el tiempo:Russell y Norvig, 2003, pp. 328–341,Poole, Mackworth y Goebel, 1998, pp. 281–298,Nilsson, 1998, c. 18.2
- ↑ Poole, Mackworth y Goebel, 1998, pp. 335–337
- ↑ Russell y Norvig, 2003, pp. 341–344,Poole, Mackworth y Goebel, 1998, pp. 275–277
- ↑ Planificación automática:ACM, 1998, ~I.2.8,Russell y Norvig, 2003, pp. 375–459,Poole, Mackworth y Goebel, 1998, pp. 281–316,Luger y Stubblefield, 2004, pp. 314–329,Nilsson, 1998, c. 10.1–2, 22
- ↑ Russell y Norvig, 2003, pp. 600–604
- ↑ Planificación clásica: * Russell y Norvig, 2003, pp. 375–430,Poole, Mackworth y Goebel, 1998, pp. 281–315,Luger y Stubblefield, 2004, pp. 314–329,Nilsson, 1998, c. 10.1–2, 22
- ↑ Russell y Norvig, 2003, pp. 430–449
- ↑ Russell y Norvig, 2003, pp. 449–455
- ↑ 43,0 43,1 Aprendizaje automático:ACM, 1998, I.2.6,Russell y Norvig, 2003, pp. 649–788,Poole, Mackworth y Goebel, 1998, pp. 397–438,Luger y Stubblefield, 2004, pp. 385–542,Nilsson, 1998, c. 3.3, 10.3, 17.5, 20
- ↑ Jordan, M. I.; Mitchell, T. M. (16 de julio de 2015). «Machine learning: Trends, perspectives, and prospects». Science (en English) 349 (6245): 255-260. Bibcode:2015Sci...349..255J. PMID 26185243. S2CID 677218. doi:10.1126/science.aaa8415.
- ↑ Procesamiento de lenguaje natural:ACM, 1998, I.2.7,Russell y Norvig, 2003, pp. 790–831,Poole, Mackworth y Goebel, 1998, pp. 91–104,Luger y Stubblefield, 2004, pp. 591–632
- ↑ Aplicaciones del procesamiento de lenguaje natural:Russell y Norvig, 2003, pp. 840–857,Luger y Stubblefield, 2004, pp. 623–630
- ↑ Cambria, Erik; White, Bebo (Mayo de 2014). «Jumping NLP Curves: A review of Natural Language Processing Research [Review Article]». IEEE Computational Intelligence Magazine (en English) 9 (2): 48-57. S2CID 206451986. doi:10.1109/MCI.2014.2307227.
- ↑ Vincent, James (7 de noviembre de 2019). «OpenAI has published the text-generating AI it said was too dangerous to share». The Verge (en English). Archivado desde el original el 11 de junio de 2020. Consultado el 11 de junio de 2020.
- ↑ Percepción de la máquina:Russell y Norvig, 2003, pp. 537–581, 863–898,Nilsson, 1998, ~c. 6
- ↑ Reconocimiento de voz: * ACM, 1998, ~I.2.7 * Russell y Norvig, 2003, pp. 568–578
- ↑ Russell y Norvig, 2003, pp. 885–892
- ↑ Visión computacional:ACM, 1998, I.2.10,Russell y Norvig, 2003, pp. 863–898,Nilsson, 1998, c. 6
Bibliografía[editar | editar código]
- Nilsson, Nils J. (1998). Artificial Intelligence: A New Synthesis (en inglés) (4.ª edición). San Francisco: Kaufmann. ISBN 978-1558604674.
- Ríos, Mauro D. (20 de septiembre de 2023). SSRN, ed. Inteligencia Artificial: Cuando la tecnología es el menor de los paradigmas (1.ª edición). New York: SSRN-ELSEVIER. Consultado el 24 de agosto de 2024.
- Russell, Stuart J.; Norvig, Peter Norvig (2009). Artificial intelligence: a modern approach (en inglés) (3.ª edición). Upper Saddle River, N.J.: Prentice Hall. ISBN 0-13-604259-7.
- Winston, Patrick Henry (1992). Artificial intelligence (en inglés) (3.ª edición). Reading, Mass.: Addison-Wesley Pub. Co. ISBN 978-0201533774.
- Russell, Stuart J.; Norvig, Peter (2003), Artificial Intelligence: A Modern Approach (en English) (2ª edición), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2.
- Poole, David; Mackworth, Alan; Goebel, Randy (1998). Computational Intelligence: A Logical Approach (en English). New York: Oxford University Press. ISBN 978-0-19-510270-3. Archivado desde el original el 26 de julio de 2020. Consultado el 22 de agosto de 2020.
- Luger, George; Stubblefield, William (2004). Artificial Intelligence: Structures and Strategies for Complex Problem Solving (en English) (5ª edición). Benjamin/Cummings. ISBN 978-0-8053-4780-7. Archivado desde el original el 26 de julio de 2020. Consultado el 17 de diciembre de 2019.
- Wason, P. C.; Shapiro, D. (1966). New horizons in psychology (en English). Harmondsworth: Penguin. Archivado desde el original el 26 de julio de 2020. Consultado el 18 de noviembre de 2019.
- Kahneman, Daniel; Slovic, D.; Tversky, Amos (1982). «Judgment under uncertainty: Heuristics and biases». Science (en English) 185 (4157) (New York: Cambridge University Press). pp. 1124-1131. ISBN 978-0-521-28414-1. PMID 17835457. S2CID 143452957. doi:10.1126/science.185.4157.1124.
- «ACM Computing Classification System: Artificial intelligence» (en English). ACM. 1998. Archivado desde el original el 12 de octubre de 2007. Consultado el 30 de agosto de 2007.
- Lakoff, George; Núñez, Rafael E. (2000). Where Mathematics Comes From: How the Embodied Mind Brings Mathematics into Being (en English). Basic Books. ISBN 978-0-465-03771-1.
- SAS. (2018, 27 septiembre). Inteligencia Artificial: Qué es y Por Qué Importa. https://www.sas.com/es_mx/insights/analytics/what-is-artificial-intelligence.html
- Russell, Stuart J.; Norvig, Peter. (2021). Artificial Intelligence: A Modern Approach (4ª edición). Hoboken: Pearson. ISBN 978-0134610993. LCCN 20190474.
- Vincent, James (15 de noviembre de 2022). «The scary truth about AI copyright is nobody knows what will happen next». The Verge. Archivado desde el original el 19 de junio de 2023. Consultado el 19 de junio de 2023.