Skip to main content
SearchLoginLogin or Signup

El arte de la Inteligencia Artificial desde una perspectiva léxica

El principal objetivo de este documento es construir un glosario, a partir de las propuestas léxicas realizadas por los diferentes entes tecnológicos (ISO, IEEE, Wikipedia y Oxford University Press). https://orcid.org/0000-0002-8111-6413

Published onJan 08, 2021
El arte de la Inteligencia Artificial desde una perspectiva léxica
·

Abstracto

Nuestro trabajo está orientado a un estudio lingüístico del vocabulario del campo científico de la inteligencia artificial. El principal objetivo de este documento es construir un glosario, a partir de las propuestas léxicas realizadas por los diferentes entes tecnológicos (ISO, IEEE, Wikipedia y Oxford University Press). Adicionalmente, el glosario estará estructurado según las ramas de conocimiento de esta área de trabajo, determinando exhaustiva y detalladamente las características de los términos que se incluirán en él para así facilitar una lectura amigable a la par que eficiente al usuario. Para llevar a cabo el análisis crítico del proyecto, se siguen los principios teóricos del análisis terminológico que propone Cabrée (1992) y Termcat (1990), prestando especial atención a determinar cuáles son las propiedades intensionales de un término necesarias para evitar confusiones con otros términos semánticamente afines. Tras la evaluación realizada, se observa la falta de precisión en dos aspectos: (i) la omisión de las características básicas y (ii) la no agrupación de los términos según las líneas de investigación a la que pertenecen.

Palabras clave: Inteligencia Artificial, terminología, líneas de investigación, propiedades intensionales y aplicaciones.

Our project focuses on a linguistic study of the vocabulary connected with the scientific field of artificial intelligence. The main aim of this paper is to develop a glossary using the information proposed by some technological institutions (ISO, IEEE, Wikipedia and University Oxford Press). Moreover, the glossary will be structured based on the branches of knowledge that this area of work presents. What is more, it is carried out a thorough examination of the properties of terms that will be included in order to provide a reader-friendly, efficient interpretation of the terms in question. To carry out the critical analysis of this project, the theoretical principles that Cabrée (1992) and Termcat (1990) propose in their terminological analyses are followed, with special focus on the intensional properties of a term needed to avoid confusion with other semantically-related terms. The results of this study show that the main flaws of the definitions scrutinized lie in the lack of specifcity regarding basic intensional properties and the absence of a grouping of the terms according to the research areas to which they belong.

Key words: artificial intelligence, terminology, research areas, intensional properties and applications.

Introducción

La tecnología permanece en constante evolución. De hecho, en los últimos años todos los sectores de trabajo han experimentado un importante crecimiento de su tasa en productividad debido a la eficacia lograda. El campo científico responsable de este gran cambio se conoce como “Inteligencia Artificial” (IA de ahora en adelante), que renovó el pasado, está mejorando el presente y será el futuro. Esta es la materia sobre la que trabajaremos en nuestro proyecto. Por tanto, para saber más acerca de la IA, nos parece conveniente incluir la definición que la Comisión Europea de Comunicación adopta para este término:

“Artificial intelligence (AI)1 refers to systems that display intelligent behaviour by analysing their environment and taking actions - with same degree of autonomy - to achieve specific goals. AI-based systems can be purely software-based, acting in the virtual world (e.g. voice assistants, image analysis software, search engine, speeches and fase recognition systems) or AI can be embedded in hardware devices (e.g. advanced robots, autonomous cars, drones or Internet Things Applications).”

Con nuestro Trabajo Final de Estudios, pretendemos compilar un glosario lo más eficiente y exhaustivo posible sobre la IA. Para ello, elaboraremos un análisis comparativo del léxico de esta área de estudio, dando prioridad a las propiedades intensionales de cada término, con el fin de que los usuarios eviten confusiones en la interpretación de las definiciones.

El Grado en Estudios Ingleses engloba una serie de competencias cognitivas y procedimentales tales como: (i) las técnicas y los métodos de análisis lingüístico, (iii) el conocimiento de terminología y (iv) la facultad de corrección lingüística. Estas aptitudes que hemos ido adquiriendo a lo largo de los años también nos ayudan a hacer una evaluación más crítica y completa de todos los significados seleccionados para nuestro estudio y evitar así una sintaxis farragosa, problemas de coherencia y cohesión y errores semánticos.

Actualmente existen entes tecnológicos que ofrecen un léxico del área de la IA. Estamos hablando de la Asociación Mundial para el Desarrollo Tecnológico (IEEE) y la Organización Internacional de Normalización (ISO). Sin embargo, la falta de precisión en ciertas definiciones impide lograr el éxito total. Por este motivo, pretendemos construir un glosario lo más completo posible, resolviendo este tipo de cuestiones: (i) ¿A qué línea de investigación de la IA pertenece el término a definir?, (ii) ¿Qué es?, (iii) ¿Qué función/es realiza?, (iv) ¿Depende de otro proceso?, (v) ¿Cómo recibe la información?, (vi) ¿Cómo gestiona la información recibida? y, finalmente, (vii) ¿Qué aplicación/es tiene para el usuario final?

Principios teóricos y metodológicos

Metodología del proyecto

Nuestro trabajo es un tipo de investigación analítica puesto que haremos un estudio comparativo léxico. La estrategia que hemos seguido consiste en escoger diferentes palabras, cada una de ellas pertenecientes a una rama de la IA. Además, añadimos la traducción realizada por la autora de todas las definiciones, facilitando la lectura tanto en inglés como en español. Las principales fuentes de referencia que hemos utilizado son: (i) IEEE (Asociación Mundial para el Desarrollo Tecnológico) e (ii) ISO (Organización Internacional de Normalización). Estas herramientas constituyen una notable contribución tecnológica universal para la mejora de las condiciones globales, siendo además la información que aportan dichas herramientas contrastada en la actualidad por multitud de profesionales técnicos de renombre y prestigio internacional. Además de éstas, se ha recurrido a otras fuentes, tales como: (i) Wikipedia, una enciclopedia, que en nuestra opinión, incluye un glosario bastante técnico y específico, principalmente porque comprende la edición de Oxford University Press y numerosos textos científicos que aparecen en el periódico de investigación sobre la IA, (ii) International Journal of Business and Management, una revista de gran prestigio académico en el mundo de la economía y las empresas pero que referencia particularmente a la definición “sistema de apoyo de decisiones”, ya que es una herramienta destinada para la organización de sociedades y, finalmente, (iii) un artículo de la revista científica de computación Elsevier, donde se explica con detenimiento el término “deep blue”.

La IA es un campo de estudio que consta de varias partes, agrupada según la función que desempeñan: (i) razonamiento, (ii) procesamiento, (iii) percepción, (iv) toma de decisiones y (v) actuación. Para tener un mayor conocimiento sobre los términos incluidos en nuestro análisis y, sobre todo, para esclarecer las ideas al lector, hemos considerado oportuno estructurar nuestro glosario en cuatro bloques:

  1. Comprensión y generación del lenguaje natural: esta técnica consiste en el procesamiento del lenguaje natural basado en la teoría cognitivista de N. Chomsky2 (Logical Structure of Linguistics, 1955), junto con la psicología cognitiva3 de otros autores tales como: (i) Donald Broadbent (Perception and communication, 1955), (ii) Minsky (Steps toward artificial intelligence, 1961) y (iii) Shannon y McCarthy (Automata Studies, 1956). Entre las aplicaciones más frecuentes del lenguaje natural en la computación, distinguimos: (i) la búsqueda de información desde un navegador (e.g. Google, Bing o Yahoo!), (ii) la traducción automática (e.g. DeepL, Lexicool o Google Translator) y (iii) el reconocimiento de voz (e.g. Textfromtospeech, Speechnotes o Talktyper).

  2. Visión artificial, reconocimiento de patrones o formas y aprendizaje automático: en este punto se manejan los datos, es decir, se procesa el código fuente de un determinado lenguaje de programación, se extraen y se seleccionan los datos necesarios, ausentes de algún tipo de error. En este proceso se incluye el aprendizaje automático. Éste es un método que genera un “aprendizaje modelo” con los datos de entrenamiento y, tras un tratamiento de prueba, se obtiene el resultado del análisis.

  3. Robótica: esta rama combina las disciplinas de mecánica, electrónica e ingeniería de control. En otras palabras, es la parte física encargada de controlar los movimientos y maniobras del robot, imitando el comportamiento humano.

  4. Sistemas expertos: este término se utiliza para referirse a mecanismos desarrollados con el progreso de la IA, que se dedican a la búsqueda de soluciones a problemas generales en tiempo real y en cualquier área.

Para un estudio apropiado de la terminología, realizaremos un análisis terminológico. En este sentido, Cabrée (1992:195) afirma lo siguiente: “la definición terminológica es una fórmula lingüística que se propone describir el concepto que una denominación representa”. Para llevar a cabo este estudio, es necesario determinar todas las características que identifican la comprensión de un concepto de manera única (De Bessé, 1997:67), siguiendo una metodología de reglas y normas basadas en Cabré (1992) y Termcat (1990). Para los propósitos de nuestro trabajo, éstas pueden sintetizarse como sigue:

  1. La formulación de una definición debe ser lo más inteligible posible, a fin de ganar en inteligibilidad y eficiencia, evitando costes de procesamiento innecesarios con términos semánticamente opacos o inapropiados que comprometan la inteligibilidad por parte de un usuario medio.

  2. Los principios lexicográficos consisten en utilizar descriptores iniciales con la misma categoría sintáctica y gramatical que el término referido, evitando la circularidad (o, más concretamente, que el término definido figure explícita o implícitamente en la formulación que define dicho término). A fin de ello, es preciso obviar la definición de un concepto por la negativa de otro y no recurrir a fórmulas metalingüísticas y paráfrasis que transmiten la misma información del concepto. Existen numerosos estudios que afirman que los cambios en el campo semántico son debidos a nuevas tendencias, regularidades o normas, sobre todo en el área de estudio de la IA, (Wiyaja y Yeniterzi, 2011). Estos autores afirman que el cambio puede estar relacionado con la frecuencia de uso. Sin embargo, otros creen que a parte de la frecuencia de uso existe otro parámetro fundamental: la polisemia (Hamilton et al., 2016). En nuestro estudio ofrecemos una perspectiva de la polisemia donde la pluralidad de significados de un término está vinculada a su aplicación en diferentes campos de estudio. Así, las cosas, en este punto analizaremos de qué forma los tecnicismos han generado su propia definición a partir de un término de uso común.

  3. La adecuación general incluye la diferenciación del concepto de otros que pertenezca al mismo u otro campo específico, dependiendo de la línea de investigación correspondiente. Además de una relación de palabras características de la línea de investigación a la que pertenece el término, dentro del área de la IA. Para la selección de estas palabras, se obtiene la información de las definiciones, aportadas e implementadas con el conocimiento experto de la autora de este trabajo.

  4. La adecuación específica compila las características (o, más exactamente, las propiedades intensionales) esenciales y las que, no siendo esenciales, son importantes para una descripción completa del concepto. Con las propiedades intensionales, se pretende obtener una definición “t” lo más precisa posible a partir de una o más características “p” (Fredholm, 1995:1-66).

Análisis crítico

Comprensión y generación del lenguaje natural

1. “Tipo de dato abstracto” (“Abstract data type”)

“Tipo de dato abstracto”

Wikipedia (a)

ISO/IEC/IEEE 31320-2:2015 (en), 3.1.2 (b)

Definición

“A mathematical model for type where a data type is defined by its behaviour (sematics) from the point of view of user of the data, specifically in terms of possible values, possible operations on data of this type, and the behaviour of these operations.“

“A data type for which the user does not depend in any way on the internal representation of the instances or the way in which the operations are realized. The data is abstract in the sense that values in the extent, i.e., the concrete values that represent the instances, are any set of values that support the operations and are irrelevant to the user. An abstract data type defines the operations on the data as part of the definition of the data and separates what can be done (interface) from how it is done (realization).“

Mi traducción

“Un modelo matemático para un tipo de dato donde se define su comportamiento (semántica) desde el punto de vista de un usuario del dato, o más específicamente atendiendo a los valores, operaciones de este tipo de dato, y el comportamiento de estas operacioanes.”

“Un tipo de dato en el que el usuario no depende de la representación interna de las instancias o de la forma en la que se ha realizado la operación. El dato se llama abstracto por los valores, por ejemplo, los valores concretos que representan las instancias son un conjunto de valores que respaldan las operaciones y son irrelevantes para el usuario. Un dato de tipo abstracto define las operaciones sobre el dato como parte de la definición y separa lo que debe hacer (interfaz) de cómo se ha realizado (realización).”

Tabla 1: Tipo de dato abstracto

Análisis comparativo

(a) Adecuación general

Los conceptos de la rama “procesamiento del lenguaje natural” están relacionados con la comunicación entre humanos y la imitación de las máquinas. Para hacer más completo nuestro análisis, consideramos oportuno incluir una serie de palabras clave que nos ayudarán a entender los conceptos añadidos en esta área de estudio. Esta selección de palabras tiene como fundamento la siguiente estructura: (i) ¿Cómo se perciben los datos?, (ii) ¿de qué forma se procesa la información? y (iii) los resultados obtenidos. Para la percepción de información incluimos estas palabras: “comunicación”, “volumen de información” y “conjunto de datos”. En el procesamiento de datos, resultan pertinentes los siguientes términos: “conocimiento”, “manejo”, “procesamiento”, “comprensión”, “representación formal”, “transformación”, “estructura de datos”, “contextos”, “compilación de datos”, “operaciones”, “estudio algebraico”, “procedimiento”, “patrón”, “sentencia” y “validación”. Por último, en el ámbito de los resultados generados, procede mencionar los siguientes términos: “lenguaje natural”, “aprendizaje”, “imitación”, “réplica”, “interacción”, “manejo de usuarios” y “valores”.

En el procesamiento del lenguaje natural, es muy importante saber qué es una estructura de datos y, sobre todo, para qué se utiliza. Normalmente, cuando hablamos de estructura de datos, nos referimos a la organización, representación y el manejo de la información de los datos abstractos.

(b) Adecuación específica

Un “tipo de dato abstracto” opera con una estructura de datos para después asociarlos con un modelo o patrón. En otras palabras, si la información4 que tiene es: (i) recipiente, (ii) material flexible, (iii) aire, (iv) helio, (v) juguete para niños y (vi) decoración en fiestas, la respuesta que emitirá al usuario sería “globo”. Por este motivo, creemos conveniente incorporar a la definición las siguientes palabras, agrupándolas según al grupo al que pertenezcan: (i) la gestión de la información, (ii) los procesos realizados para emitir un resultado y (iii) la forma de interacción con el usuario final. En el primer lugar destacamos: “valor”, “acceso”, “patrón”, y “estructura de datos”. En el procesamiento interno de los datos distinguimos entre los siguientes términos: “comportamiento”, “modelo matemático”, “reconocimiento”, “conjunto e normas”, “asociación”, “partes primitivas del lenguaje”, “representación de datos” y “conjuntos de operaciones”. Y, como el resultado final, incluimos estas palabras: “usuario”, “interfaz”, “valor”, “inserción”, “eliminación”, “búsqueda”, “vaciado” e “inicialización”.

(c) Principios lexicográficos

Para definir un concepto con claridad es importante que no se repita demasiada información en la definición. Considérese, a título ilustrativo, el ejemplo 1(b). El primer error de repetición lo encontramos en definir “tipo de dato abstracto” como “un tipo de dato” porque no aclara a qué hace referencia este término. Siguiendo esta línea, se menciona en dos ocasiones que los valores que constituyen “el dato abstracto” son irrelevantes para el usuario, otra explicación redundante que no aporta nueva información. Para evitar este fenómeno, proponemos una versión mejorada en la que intentamos compilar las bases principales de una definición: (i) ¿Qué es?, (ii)¿Cuál es su función? y (iii) otros detalles más concretos. Con estas consideraciones en mente, nuestra propuesta es como sigue: “un modelo matemático que representa de forma interna un conjunto de valores, irrelevantes para el usuario y con las que éste interactúa a través de operaciones matemáticas”.

Cuando un usuario intenta comprender un concepto, lo que menos necesita es toparse con palabras que entrañen una dificultad si cabe mayor que la del término al que se refiere. Por lo general, la inclusión de tecnicismos se señala como una debilidad, aunque es cierto que conocer palabras técnicas de cualquier área aporta una mayor precisión a la hora de comprender una idea. Veamos el ejemplo 1(b), donde apreciamos la palabra “interfaz”. Ésta es una palabra de uso común y no sólo se relaciona con el mundo de la informática. De hecho, el diccionario de la RAE (23.a e., 2014) recoge una acepción general (“conexión o frontera común entre dos aparatos o sistemas independientes”) atribuible a todos los campos de estudio. Como puede observarse, dicha acepción no indica que “interfaz” sea un tecnicismo. En este caso, no clasificamos esta característica como una debilidad, y sí como una fortaleza, porque la definición 1(b) indica entre paréntesis que la interfaz es el punto de comunicación entre cómo se ha realizado la representación interna de los datos y los resultados obtenidos. Aunque esta información añadida no es imprescindible, ésta facilita, no obstante, una mejor interpretación del concepto en cuestión por parte del usuario.

Las fórmulas metalingüísticas son expresiones utilizadas para explicar el propio lenguaje, entre las cuales cabe destacar las siguientes: “significa en general x”, “se refiere x” o “estaríamos hablando x”. En ciertas ocasiones, por ejemplo, al leer un libro o un artículo, estas expresiones enriquecen el texto, ya que facilitan su lectura, favoreciendo además la comprensión de la identificación o caracterización que se pretende transmitir en su formulación lingüística. Sin embargo, cuando se trata de explicar la definición de un término en pocas líneas, las fórmulas metalingüísticas resultan opacas o, en su caso, poco transparentes para entender el significado con claridad puesto que excede la extensión del concepto sin aportar nueva información. En el caso de 1(a) destacamos este aspecto como debilidad para “un tipo de”. Esta expresión es inadecuada porque no se necesita un tipo de dato específico, sino que cualquier información retenida en el modelo puede resultar una característica válida. Por otro lado, las expresiones “donde se define” y “desde el punto de vista de” no son inapropiadas en el contexto, pero sin embargo es conveniente acortarlas para no alargar demasiado la definición. Por eso, consideramos necesario la reformulación de este concepto, eliminando dichas fórmulas. Así las cosas, nuestra formulación alternativa queda como sigue: “un modelo matemático, que con los valores establecidos, define los comportamientos de unos datos con los que el usuario puede operar”.

Es importante que el término descrito y el descriptor inicial coincidan en la categoría gramatical y semántica, preservando así su similitud conceptual y facilitando, por tanto, que puedan ser sustituibles entre ellos. En 1(a), se emplea “un modelo matemático” y en 1(b) “un tipo de dato abstracto”. Además todas las expresiones están en masculino, singular, cumpliendo así con la condición de similitud conceptual y gramatical, por lo que categorizamos este aspecto como fortaleza en ambas definiciones.

Para concluir el análisis, proponemos una opción de la definición al término “tipo de dato abstracto” y un ejemplo, teniendo en cuenta todas las características que aporta el área de estudio “procesamiento del lenguaje natural” así como las de la propia palabra.

Así las cosas, nuestra propuesta de entrada léxica para TDA (i.e., Tipo de Dato Abstracto) quedaría como sigue: “es un modelo matemático implementado por una estructura de datos que representa una serie de valores irrelevantes para el usuario. El acceso a los datos se realiza a través de una interfaz, manejando operaciones básicas: (i) la inserción, (ii) la eliminación, (iii) la búsqueda, (iv) el vaciado y (v) la inicialización. Ejemplo5: “los números enteros, flotantes y booleanos son tipos de datos abstractos que se utilizan para comprobar el valor de la variable en una determinada estructura de datos”.

Visión artificial, reconocimiento de patrones y aprendizaje automático

2. “Razonamiento abductivo” (“Abductive reasoning”)

“Razonamiento abductivo”

Wikipedia (a)

ISO/IEC 2382-28:1995 (b)

Definición

“A formal logical inference which starts with an observation or set of observations then seeks to find the simples and most likely explanation. This process, unlike deductive reasoning, yields a plausible conclusion but does not positively verify it.”

“Inference from particular facts to plausible explanations of these facts.”

Mi traducción

“Una forma de inferencia lógica que comienza con una observación o un conjunto de observaciones que busca encontrar la explicación más simple y probable. Este proceso, a diferencia del razonamiento deductivo, genera una conclusión adecuada pero no logra verificarlo.”

“Inferencia de hechos particulares para explicaciones adecuadas de estos hechos.”

Tabla 2: Razonamiento abductivo

(a) Adecuación general

La IA tiene como objetivo construir su propia realidad simulando las cualidades humanas. Es por eso por lo que hablamos de visión artificial en la descripción de una escena y nos referimos a reconocimiento de patrones y aprendizaje automático, cuando un ordenador tiene la habilidad de aprender por sí solo sin ser previamente programado. Siguiendo esta línea, el área de estudio de la visión artificial, el reconocimiento de patrones o formas y el aprendizaje automático recoge una serie de palabras, apiladas en tres grupos diferentes según la función que desempeñan en el proceso: (i) ¿Cómo se obtienen los datos y de qué tipo son?, (ii) ¿Qué método sigue la máquina para generar un resultado?, (iii) ¿Cómo se analiza la información obtenida y qué rendimiento ofrece? Las palabras “información numérica”, “información simbólica”, “visión humana”, “cámaras”, “contraste”, “adquisición de imágenes”, “regularidades” y “computadora” están relacionadas con la recepción de datos en la máquina. Sin embargo, en la forma de procesar esta información debemos tener en cuenta los siguientes términos: “fórmulas computacionales”, “conexión”, “automático”, “modelo pragmático”, “proceso”, “objetos”, “observaciones”, “reconstrucción”, “patrones”, “división”, “clasificación”, “toma de decisiones”, “representación”, “técnica”, y “aprendizaje”. Por último, para comprobar de qué manera se ha gestionado el contenido y observando los resultados, hacemos referencia a estas palabras: “disciplina”, “método”, “análisis”, “experiencia”, “habilidad”, “probabilidad”, “resultado”, “conclusión”, “inteligencia”, “ciencia”, “digitalización”, “asignación”, “justificación”, “inspección”, “estadísticas” y “computadora”.

Los seres humanos aplicamos diferentes tipos de razonamiento (abductivo, deductivo o inductivo) dependiendo de la situación en la que nos encontramos. Sin embargo, para las máquinas resulta ser más eficaz “el razonamiento abductivo”, ya que primero asimilan una serie de características para luego asociarlas a un contexto en forma de hipótesis. Por ejemplo, si un niño va a jugar al parque con sus amigos y vuelve a casa con la camiseta manchada, las premisas que se pueden plantear son las siguientes: (i) se ha caído, (ii) tenía las manos sucias y se ha limpiado en la camiseta, (iii) estaba jugando al fútbol y ha parado el balón con el pecho, lo que le ha manchado la camiseta y (iv) ha pisado un charco y le ha salpicado6. Estas hipótesis que se generan favorecen el aprendizaje automático porque añaden nueva información a las ideas ya existentes y mejoran la capacidad de la máquina de asociar nociones.

(b) Adecuación específica

Tras este argumento, por analogía, en el caso del término “razonamiento deductivo”, proponemos que, para elaborar esta definición correctamente, es necesario conocer las partes que forman este concepto. Para ello, es importante saber: (i) ¿De qué tipo es la información?, (ii) el estudio de esa información y (iii) la observación de los resultados y la emisión de una respuesta. La extracción de información está vinculada a: “premisa” e “hipótesis”, mientras que, el procesamiento de datos se gestiona por medio de las siguientes palabras: “conjunto de fórmulas”, “proceso”, “características”, “contexto”, “conclusiones”, “razonamiento”, “observaciones” y “modelo pragmático”. Ya, como paso final, el usuario puede interpretar los resultados obtenidos a través de los distintos comportamientos gestionados por la máquina: “eficacia”, “asociación”, “asimilación”, “consecuencia lógica”, “facultad”, “inteligencia”, “deducción”, “argumentación” e “intelecto”.

(c) Principios lexicográficos

En el proceso de aprendizaje automático, la lógica es el elemento fundamental que deben desarrollar las máquinas para adquirir cierta inteligencia, ya que la base de esta ciencia se centra en aplicar un grado de ingenio a cualquier tipo de objeto: (i) coches, (ii) instrumentos musicales, (iii) móviles, (iv) muñecos y (v) utensilios de cocina.

Definir una característica de un concepto con la negación de otro es un error muy frecuente en algunos diccionarios. Nos referimos, por ejemplo, al diccionario cerámico científico práctico (1987), que define la palabra “aleación” como sigue: “todo metal que no es un elemento metálico puro.” Éste un punto desfavorable, ya que la inclusión de otro término, del que probablemente el usuario no sea conocedor, dificulta por partida doble la comprensión de la primera definición. Es el caso del término 2(a), que contiene un punto interno donde se describe la característica de “verificación” a partir de la negación de otro concepto, a saber, “razonamiento deductivo”, lo que supone una pérdida importante de las propiedades intensionales del término.

En la formulación de la definición de un concepto es importante exponer de forma clara las características del término al que hace referencia, desglosando los detalles en un orden de generalidad y/o abstracción decreciente. Considérese, a título ilustrativo, el caso de 2(a). En primer lugar, la definición comienza haciendo referencia explícita a la conexión con el campo de la lógica, para a continuación proceder explicando cómo se obtienen las premisas y, finalmente, acaba proporcionando información detallada acerca de la verificación de estas hipótesis. Por tanto, consideramos como fortaleza que la definición refleje de forma oportunamente secuencial la estructura de sus propiedades, descendiendo progresivamente hacia un nivel de mayor especificidad y/o menor abstracción/generalidad.

Como ya hemos comentado en el análisis anterior, la repetición innecesaria de palabras empobrece la definición, constituyendo muy a menudo un obstáculo para una mejor comprensión del término (así como un procesamiento menos costoso). Es por eso por lo que el uso de sinónimos resulta muy útil, ya que enriquece el lenguaje, aportando más calidad al texto. Por ejemplo, la definición 2(b) utiliza el término “hecho” en dos ocasiones. Para evitar esta complicación innecesaria, podríamos utilizar otras palabras tales como: “suceso”, “situación” y “circunstancia”. Así las cosas, la definición 2(b) quedaría así: “inferencia de hechos particulares para explicaciones adecuadas de tales circunstancias”.

En 2(a) se produce el fenómeno de circularidad en el descriptor inicial. No resulta, en nuestra opinión, aceptable empezar la definición de “razonamiento deductivo” con una expresión semánticamente más genérica y vaga que el término que se pretende definir. Así, la expresión “un tipo de razonamiento” oscurece las propiedades extensionales del término, al caracterizar en clave hiponímica (i.e. “un tipo de “) el término objeto de la definición. Para evitar este problema, se podría hacer uso de las siguientes sustituciones léxicas: “método lógico”, “un conjunto de fórmulas computacionales” y “un tipo de intelecto pragmático”. Cualquiera de estas expresiones resultaría más idónea en la medida en que hace explícito el hecho de que el concepto relaciona “lógica” y “computación”.

Como aspecto positivo en ambas definiciones (2(a) y 2(b)) debemos destacar la carencia de fórmulas metalingüísticas, de tal forma que las propiedades del concepto queden mejor expuestas, sin expresiones innecesarias que dificulten o supongan un mayor conste en la comprensión de dicho término por parte del usuario.

Tras comprobar en nuestro análisis las debilidades y fortalezas que reúne cada concepto, decidimos escoger como base de nuestra propuesta 2(a), ya que mejora notablemente la opción de definición para el término “razonamiento abductivo” sobre 2(b). Por tanto, nuestra propuesta quedaría así: “una forma de inferencia lógica que comienza con una observación o un conjunto de observaciones que buscan encontrar la explicación más simple y probable. Este tipo de razonamiento genera una conclusión correcta, aunque no verificada.” A continuación, presentamos un ejemplo7 para ilustrar el uso de este: “el razonamiento abductivo es utilizado para gestionar la lógica de las máquinas”.

3. “Función de activación” (“Activation function”)

“Función de activación”

Wikipedia (a)

ISO/IEC 2382-2015 (en) 2120683 (b)

Definición

“In artificial networks, the activation function of a node defines the output of that node an input or set of inputs”.

“Function that computes the output value of an artificial network neuron based on its input values and its current connection weights”.

Traducción

“En las redes neuronales artificiales, la función de activación de un nodo define la salida de ese nodo dada una entrada o conjunto de entradas”.

“Función que registra el valor de salida de una neurona artificial en función de sus valores de entrada y su actual carga de conexión”.

Tabla 3: Función de activación

Análisis comparativo

(a) Adecuación general:

Cuando hablamos de función de activación, nos referimos a los valores con los que trabajan las neuronas para poder, en la medida de lo posible, emitir una respuesta. Aunque 3(a) y 3(b) recojan algunas de las propiedades intensionales básicas de este concepto (redes neuronales, nodo y valor), creemos oportuno incluir una serie de palabras clave para lograr una reformulación más precisa de sus propiedades intensionales. En la selección de estas palabras hemos dividido la forma en la que el término “función de activación” trabaja para emitir una respuesta. La estructura propuesta es como sigue: (i) ¿Qué datos utiliza? , (ii) ¿Cómo se procesa la información? y (iii) ¿Cuáles son los resultados obtenidos? Primero, la información es recibida en forma de “valores de entrada”, “conjunto de valores” y “método”. Después, la gestión de esta información se realiza por medio de “operaciones matemáticas”, “rango”, “funciones”, “proceso de aprendizaje”, “suma ponderada”, “filtración”, “punto de conexión”, “servidor”, “máquina”, “arquitectura” y “transformación de los datos”. Una vez realizado este procedimiento y considerando siempre los “valores de salida”, la función de activación se emplea para el manejo de “neuronas” y “redes neuronales” en la resolución de problemas de “linealidad”.

En términos generales 3(a) y 3(b) ofrecen una visión clara de lo que es el término porque responden de forma precisa y adecuada a qué hace referencia el concepto. No obstante, es importante hacer una observación en relación con el nivel e granularidad de la información que se ofrece, aspecto que consideramos de especial relevancia para lo que se refiere a nivel de adecuación de ésta para el usuario. Por un lado, 3(a) omite que los valores de las neuronas artificiales son los que se tienen en cuenta para representar la función y la velocidad en la gestión del proceso es un factor relevante. Por otro lado, para que el concepto 3(b) sea más específico, necesita incluir algunas características tales como: (i) el objetivo de la función de activación, (ii) lo que se ejecuta antes del proceso y (iii) el origen de los valores obtenidos por las neuronas artificiales.

La definición que nos ofrece 3(a) puede confundir al usuario que intente comprender el término. La fuente de dicha opacidad estriba en la repetición de la palabra “nodo”. Para subsanar este problema, consideramos oportuno recurrir al uso de sinónimos8 que ayuden a enriquecer el lenguaje. Así, por ejemplo, podríamos usar “intersección”, “punto de unión”, “intermediario” o “conexión”, de tal forma que la inclusión de estas palabras también contribuye a desglosar el significado de “nodo”. Lo mismo ocurre con 3(b), donde se repite la palabra “función”, pero con dos acepciones de significado que explicamos a continuación. De acuerdo con el DRAE (23.a.ed., 2014), la primera (i.e. “relación entre dos conjuntos que asigna a cada elemento del primero un elemento del segundo o ninguno.”) se utiliza para definir a qué hace referencia un componente respecto de otro, por lo que se puede sustituir por “forma”, “categoría”, y “representación”. Mientras que la segunda (i.e. “locución preposicional.”) es una expresión lingüística que indica dependencia y es reemplazable por “conforme con”, “según”, y “dependiendo de”, entre otras expresiones sinónimas.

La expresión “función de activación” requiere inevitablemente del uso de tecnicismos como “redes neuronales”, “redes computacionales” o “neuronas artificiales” para desarrollar su significado, sobre todo porque son necesarias para su funcionamiento. Por tanto, es importante incluir la definición de estos términos, ya que debemos tener en cuenta que el usuario medio puede desconocer a qué se refieren. Más concretamente, 3(a) y 3(b) adolecen de esta debilidad. En el caso de 3(a) encontramos dos tecnicismos, el primero es “redes neuronales artificiales”, comúnmente conocidas como “ANN”. Allende et al. (2002) las definen como unos métodos capaces de relacionar patrones por medio de algoritmos de aprendizaje basado en los datos existentes de forma inductiva. La segunda es “nodo”, un término de uso común que recoge el diccionario de la RAE (23.a ed., 2014) de la siguiente manera: “es un esquema o representación gráfica en forma de árbol, cada uno de los puntos de origen de las distintas ramificaciones”. Con esta palabra ocurre lo mismo que con “interfaz”, es decir, su significado no está vinculado únicamente al área de la informática y con la acepción general se comprende únicamente cuál es su función. En el caso de 3(b), el tecnicismo encontrado es “neurona artificial”, a saber, un elemento básico que compone las redes neuronales artificiales según Allende et al. (2002). Otro aspecto que podría ser una debilidad sería la intrusión de “carga de conexión” al final del concepto. A pesar de no ser un tecnicismo, el significado de este término es complejo de interpretar en este contexto, porque no puntualiza el elemento al que se refiere. Por ello, sería importante aclarar explícitamente en la definición que “carga de conexión” está relacionada con la velocidad que pueda llegar a alcanzar el proceso.

Como fortaleza, destacamos en ambas definiciones la carencia de fórmulas metalingüísticas y una adecuada clasificación de la categoría gramatical, lo que permite, entre otras cosas, perfilar las propiedades intensionales del término en cuestión sin ningún inconveniente.

Para realizar nuestra propuesta, hemos partido de la definición 3(b). El motivo de su elección es cómo están estructurados los datos, de tal forma que el usuario recibe la información clara de: (i) lo que es, (ii) qué hace y (iii) de qué forma. La proposición que hacemos la completamos con nuevas características, haciendo hincapié en el método de procesar la información con la que trabaja esta función. Nuestra propuesta es como sigue: “la función de activación es la encargada de generar una respuesta a partir de un conjunto de valores de entrada (neuronas artificiales). La información recibida es procesada por un conjunto de operaciones matemáticas”. Un ejemplo del uso de este término sería el siguiente9: “la función de activación recoge un amplio rango de valores positivos y negativos”.

4. “Aprendizaje automático” (“Learning machine”)

“Aprendizaje automático”

ISO/IEC 38505-1:2017 (en), 3.7(a)

IEEE (b)

Definición

“Process using algorithms rather than procedural coding that enables learning from existing data in order to predict future outcomes”.

“Machine learning is the study of methods for constructing and improving software systems by analysing examples of their desired behaviour. Machine learning methods are appropriate in application settings where people are unable to provide precise specifications for desired program behaviour, but where examples of this behaviour are available.

Mi traducción

“Proceso que utiliza algoritmos en vez de procesos codificados para conectar el procedimiento de aprendizaje de un dato existente y así vaticinar los resultados.”

“El aprendizaje automático es el estudio de los métodos para la construcción y la mejora del software analizando ejemplos del comportamiento esperado. Los métodos de aprendizaje automático son adecuados en la configuración de aplicaciones dónde las personas no son capaces de ofrecer indicaciones concretas para conseguir el comportamiento deseado, solo dónde los ejemplos de este comportamiento sean accesibles.”

Tabla 4: Aprendizaje automático

Análisis comparativo:

(a) Adecuación general y adecuación específica:

El aprendizaje automático tiene como objetivo adquirir conocimientos por medio de experiencias. Probablemente hayas utilizado en varias ocasiones este procedimiento sin ser consciente, debido a que está presente en actividades cotidianas como: (i) precisar los resultados de búsqueda en un buscador, (ii) determinar qué publicaciones verás en base a tus preferencias personales en las redes sociales y (iii) los resultados. Las palabras que engloban la percepción de la información y de la forma en la que se gestione el conocimiento. Para ello, creamos tres bloques: (i) la información recibida, (ii) las técnicas que se utilizan para el aprendizaje y (iii) los resultados. Las palabras que engloban la percepción de la información son las siguientes: “sistema organizado”, “método”, “principio”, “minería de datos”, “algoritmo”, “patrón”, “percepción” y “estímulo”. En cuanto a la adquisición del conocimiento, los siguientes términos resultan pertinentes: “transformación”, “observación”, “proceso”, “tarea”, “entrenamiento”, “entorno”, “comportamiento”, “criterio”, “conducta”, “pronóstico”, “programación”, “cambio”, “categoría”, “modelo lógico”, “clasificación” y “análisis”. Una vez realizado el proceso, recibimos una serie de respuestas que relacionamos con los términos que siguen: “cognición”, “comportamiento”, “interpretación”, “condicionamiento”, “asociación”, “adquisición de conocimientos” y “experiencias”.

La ciencia de datos es la base de información con la que trabaja el aprendizaje automático. En IA existe otro término con el que a menudo se confunde esta palabra, a saber, el concepto de “minería de datos” o también conocido como “data mining” . A grandes rasgos, la principal diferencia entre ambos es que la minería de datos genera los recursos que necesita el aprendizaje de máquinas para funcionar. Aunque para conocer realmente cuál es la función que desempeña la minería de datos en el aprendizaje automático, nos parece particularmente idóneo traer a colación aquí la siguiente definición: “ la minería de datos combina técnicas de la estadística, la IA, las bases de datos, la visualización y otras áreas, para descubrir de forma automática o semiautomática, modelos de series de datos” (Siebes, 2000). Es particularmente apropiado poner en conocimiento del usuario palabras que están relacionadas entre sí para saber de dónde procede la información, cómo se generan los patrones o modelos y sobre todo para evitar la confusión/similitud semántica.

(b) Principios lexicográficos

La definición 4(b) es muy completa para el usuario porque no solamente explica a qué hace referencia el término en cuestión, sino que también aclara para qué se utiliza y sobre todo cuáles son sus principales aplicaciones. Por tanto, clasificamos este aspecto como fortaleza. Sin embargo, en 4(a), el nivel de granularidad de la definición no es tan explícito ni tan detallado, algo que consideramos una debilidad porque no ofrece los detalles suficientes para entender el concepto. Así, en nuestra opinión, esta palabra debe englobar entre sus propiedades cómo aplica el usuario el aprendizaje automático en su vida diaria, ya que su utilización es muy común y de esta forma estará más familiarizado con el concepto.

No obstante, en el caso de 4(b), es conveniente destacar que la estilística de la formulación escrita puede mejorar, evitando la repetición de las palabras: “método” y “comportamiento” y sustituyéndolas por estos sinónimos: “procedimiento” y “conducta”.

Tanto en 4(a) como en 4(b) se incluyen palabras como: “algoritmo”, “software” y “aplicación”, que pueden dificultar el concepto ya que algunas de ellas, a pesar de ser de uso común, se emplean en un contexto tecnológico muy específico. En 4(a) señalamos el término “algoritmo”. En el diccionario de la Real Academia Española (23.a ed., 2014), se recoge una acepción general de “algoritmo”, aplicable a cualquier área de estudio que se define así: “un conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”. Siguiendo con nuestra investigación, las palabras “software” y “aplicación” aparecen en la definición 4(b). Para “software” no existe otro significado que no esté vinculado a las ciencias computacionales, a pesar de que este término en inglés significaba originalmente “menaje de cama”. En este caso, para un usuario de nivel medio bajo sería necesario consultar la definición en un diccionario. Por ejemplo, la Real Academia Española define esta palabra como: “un conjunto de programas, instrucciones y reglas informáticas para ejecutar ciertas tareas en una computadora”. Finalmente, para concluir este análisis, nos centramos en la palabra “aplicación”, de la cual encontramos dos acepciones. Por un lado, y de carácter más general, uno de los sentidos que otorga la RAE (23.a ed., 2014) es: “la acción y efecto de aplicar o aplicarse”. Por otro lado, y más concretamente en el campo de la tecnología, este concepto se define y como: “programa preparado para una utilización específica, como el pago de nóminas y el tratamiento de textos”. Por tanto, algo igual que ocurre con la palabra “algoritmo”, el término “aplicación” no es un tecnicismo, porque el significado no específico que incluye la RAE es válido para todas las áreas de estudio.

La definición de cualquier término debe ser lo suficientemente clara a la par que concisa, ya que su objetivo principal es ofrecer la información justa y necesaria para aclarar el concepto sin expresiones que no aporten nuevos datos para el conocimiento del usuario. Para ello es necesario que se señalen en la definición las características intensionales más distintivas. Es por esto por lo que destacamos como fortaleza la inexistencia de estructuras metalingüísticas en 4(a) y 4(b). Por ejemplo, en el caso de 4(a) la definición se divide en tres partes: (i) qué es, (ii) para qué se utiliza, (iii) qué resultados proporciona. Mientras que en 4(b) la distribución queda de la siguiente manera: (i) qué es, (ii) para qué se utiliza, (iii) los detalles específicos y (iv) las aplicaciones.

Además, observamos de nuevo la coincidencia entre la palabra a describir y los descriptores iniciales empleados en las dos definiciones. Esto puede considerarse un aspecto favorable, ya que ambos son mutuamente reemplazables entre sí.

A partir de esto, nuestra propuesta es como sigue: “el aprendizaje automático es un proceso de identificación de patrones en una minería de datos (base de datos de donde se obtiene la información) que tiene la capacidad de pronosticar comportamiento a través de algoritmos. La cognición aplicada a los sistemas de aprendizaje automático permite a las máquinas desarrollar ciertas acciones como: (i) asimilación, (ii) generalización, (iii) inducción y (iv) diferenciación. Ejemplo10: “un robot es capaz de distinguir una pelota roja de una manzana roja utilizando el aprendizaje automático.”

5. “Red neuronal artificial” (“Artificial neural network”)

“Red neuronal artificial”

ISO/IEC 38505-1:2017 (en), 3.7 (a)

IEEE (b)

Definición

“Network of primitive process elements connected by weighted links with adjustable weights in which each element produces a value by applying a nonlinear function to its input values, and transmits it to other elements or presents it as output value.”

“Artificial neural networks (ANNs), which form the basis of KBANN, are a particular method for empirical learning. ANNs have proven to be equal, or superior, to other empirical learning system over a wide range of domains, when evaluated in terms of their generalization ability”.

Mi traducción

“Red de elementos primitivos de un proceso conectados por vínculos ponderados con pesos ajustables, en los que cada elemento genera un valor aplicando una función no linear para sus valores de entrada y lo transmite o muestra como un valor de salida.”

“Las redes neuronales artificiales (ANNs), forma la base de KBANN, son un método particular para el aprendizaje empírico. ANNs han demostrado ser iguales o superiores, a otros métodos de aprendizaje empírico en un amplio rango de dominios, al evaluar su capacidad de generalizados.

Tabla 5: Red neuronal artificial

Análisis comparativo:

(a) Adecuación general y adecuación específica

Las redes neuronales artificiales tienen como objetivo alcanzar el funcionamiento del cerebro humano. Para conseguirlo, siempre se ha trabajado tomando como base las redes neuronales biológicas. Este término, acuñado en la línea de investigación del aprendizaje automático, es uno de los más importantes en el área de la IA, porque es en este ámbito donde se encuentra la fuente de conocimiento de las máquinas. Por este motivo, consideramos conveniente extraer una serie de términos que permitan acotar de forma adecuada y precisar las propiedades intensionales de dicho término y así poder construir una definición lo más completa posible del mismo. Nuestra propuesta de los componentes claves en la configuración intensional del concepto se agruparían de acuerdo con la forma de gestionar la información: (i) ¿Cómo se recibe la información?, (ii) ¿Qué transformación sufren los datos? y (iii) ¿Cuál es el resultado? En el primer grupo distinguimos entre: “conjunto”, “algoritmo”, “señales” y “unidades”. Para la transformación de la información recibida, hablamos de los siguientes términos: “observación”, “comportamiento”, “sistemas de conexión”, “operaciones”, “nodo”, “transmisión”, “intercambios”, “modelo” y “entrenamiento”. Para terminar, destacamos las palabras que tienen que ver con los resultados y las principales aplicaciones del término en cuestión: “experiencia”, “patrones”, “conocimiento”, “automatización”, “resolución”, “capacidad humana”, “célula”, “neurona”, “sistema neural”, “exterior”, “aplicación”, “aprendizaje”, “predicciones” y “clasificaciones”.

Es probable que, si preguntamos cuál es la principal diferencia entre las redes neuronales biológicas y las artificiales, la respuesta sea la capacidad de procesamiento. En cualquier caso, lo que no debemos olvidar es que estamos comparando una máquina con un cerebro y que el estímulo de respuesta es mayor en el artificio, aunque el número de neuronas que contiene sea menor. Nos parece relevante para los propósitos de este trabajo comentar ciertas curiosidades, debido a que cada vez está más desarrollada la inteligencia humana en robots. Según las afirmaciones de Ramón y Cajal (1899), el sistema neural biológico está compuesto por mil millones de neuronas conectadas entre sí. A pesar de que los sistemas artificiales cuentan con muchas menos neuronas (cien mil aproximadamente), estas redes intentan emular los procesos biológicos: (i) procesamiento paralelo (ejecución de dos tareas al mismo tiempo), (ii) memoria distribuida (evita la pérdida de información) y (iii) adaptabilidad al entorno (aprende de la experiencia y sabe reconocer contextos) (Rumelharty McClelland, 1986).

(b) Principios lexicográficos

El concepto 5(a) incorpora en su definición términos técnicos y desconocidos para un usuario de nivel medio bajo interesado en el área. Mención especial merecen las siguientes palabras: “red de elementos primitivos”, “vínculos ponderados” y “pesos ajustables”. A simple vista, un usuario puede deducir el significado de estas expresiones. Sin embargo, es posible que no sepa adecuarlo exactamente a lo que se refiere. Primero, es conveniente explicar qué significa “vínculos ponderados” y “pesos ajustables” para entender sin problema el concepto de “red de elementos primitivos”. Según Rojas, los vínculos ponderados representan la intensidad de interacción entre neuronas. Mientras que los pesos ajustables adaptan las conexiones entre las neuronas, optimizando el resultado del proceso de aprendizaje (Torra et al., 1998). Una vez entendido esto, afirmamos que una red de elementos primitivos alude a las unidades básicas que componen el sistema, o sea, las neuronas. Además, este concepto engloba la estructura, la disposición y el algoritmo para estimar los pesos o ponderaciones (Lawrence, 1994). Otra palabra que puede entrañar cierta dificultad es “función lineal”, ya que resulta una palabra técnica del dominio de la computación. Cuando hablamos de funciones lineales o no lineales, nos referimos a la representación de información que genera una respuesta emitida por el sistema neural de la máquina. Estas funciones suelen ser no lineales, ya que usualmente la red neuronal tiene dificultades en la resolución en ciertos problemas que se le plantean. Después de valorar nuestro análisis, decimos que el uso de las palabras técnicas “elementos primitivos”, “vínculos ponderados” y “pesos ajustables” en 5(a) generan una debilidad a esta definición. Por el contrario, la definición de 5(b) no presenta este inconveniente, lo que se considera una fortaleza.

Como ya hemos comentado anteriormente, la circularidad lingüística es un aspecto negativo para las definiciones. Un ejemplo de este fenómeno lo encontramos en 5(a), donde se emplea la palabra “red” para definir “red neuronal artificial”, término demasiado vago que no nos aclara con suficiente detalle lo que es. Para ello, podríamos sustituirla por un sinónimo adecuado en este contexto, como “conjunto” o “grupo de”.

Tras comprobar las debilidades y fortalezas que presenta cada definición, hemos decidido tomar como referencia 5(a) para desarrollar nuestra propuesta, ya que expone con claridad: (i) a qué hace referencia, (ii) cómo se generan los valores y (iii) de qué forma se transmite. Por el contrario, nos encontramos con un escenario contrario en 5(b), que presenta un significado poco distintivo en cuanto a definir lo que es, ya que únicamente se mencionan dos propiedades: (i) para qué se utiliza, (ii) qué capacidades tiene.

La proposición que nosotros hacemos tiene como base la siguiente estructura: (i) qué es, (ii) de qué está compuesta, (iii) cómo funciona y (iv) qué respuestas genera. Nuestra propuesta es como sigue: “una red neuronal artificial está formada por un conjunto de unidades básicas interconectadas entre sí (neuronas). Un modelo simplificado que transmite información a partir de unos valores de entrada para emular el sistema de aprendizaje del cerebro humano. Además, mostramos un ejemplo11: “las redes neuronales artificiales permiten la creación de un coche-robot.”

Robótica

4. Sensor

“Sensor”

Diccionario RAE (a)

ISO 5598:2019 (en), 3.2.673 (b)

Definición

“Dispositivo que detecta una determinada acción externa, temperatura, precisión y la transmite adecuadamente.”

“Device that detects a condition in a system or componente (3.2.115) and produces an output signal.

Mi traducción

“Dispositivo que detecta una condición en un sistema o componente (3.2.115) y produce una señal de salida.”

Tabla 6: Sensor

Análisis comparativo

(a) Adecuación general

El término “robótica” tiene su origen en la palabra checa “robota”, que significa trabajo. Es un concepto relativamente nuevo que comenzó a dar nombre con la creación de un pájaro de madera que funcionaba a vapor (con vuelo autopropulsado) y era capaz de recorrer más de doscientos metros (Felger y Nifong, 2002). Sin embargo, con el paso de los años, la robótica ha incorporado nuevos métodos, tales como: (i) el detective virtual, (ii) REPT (un método para ayudar a reciclar) y (iii) AGROTECH (un proyecto basado en la agrotecnología). La innovación en este sector ha obligado a ampliar el lexicón. Para la selección de las palabras clave, hemos tenido en cuenta dos aspectos: (i) ¿qué factores influyen en el funcionamiento de la robótica? y (ii) ¿cuáles son sus principales aplicaciones? Antes de construir un robot es necesario programar en nuestra mente cómo empezar a elaborarlo sin utilizar aún la electrónica. Por eso es importante conocer estas palabras básicas: “diseño”, “operaciones matemáticas”, “funciones”, “espacio”, “órdenes”, “protección”, “cinemática”, y “parámetros geométricos”. Tras este procedimiento, es interesante conocer algunas de las aplicaciones que tendrá el robot que hemos construido entre las que destacamos: “coordinación”, “rotación”, “estabilidad”. “direccionalidad”, “autocontrol”, “calibración”, “comprobación”, “toma de decisiones”, “realización de tareas”, “apariencia” y “modo de control”.

Es curioso saber que el primer sensor se creó para regular la temperatura de la máquina y así, evitar cualquier tipo de incidente. La fabricación de este elemento sirvió para mejorar los procesos de integración, favoreciendo la inteligencia de las máquinas (Bryzek, 1993).

(a) Adecuación específica

En robótica, el sensor es la pieza fundamental para recibir información y reaccionar, emitiendo una respuesta. Cada día los sensores están más integrados en nuestra sociedad, un ejemplo de ello, son los interruptores de luz, los grifos de agua o las alarmas de incendio y robo. Por ello, para precisar más la definición de este término, consideramos importante incluir las siguientes palabras clave para caracterizar con suficiente grado de detalle las propiedades intensionales del término en cuestión. En la elección de estas palabras, hemos recogido principalmente los agentes antes los que interactúa un sensor: “temperatura”, “medio”, “sensibilidad”, “distancia”, “aceleración”, “torsión”, “sentidos”, “procesamiento”, “fuerza”, “desplazamiento”, “movimiento”, “humedad”, “cerebro” y “magnitud”.

(b) Principios lexicográficos

6(a) y 6(b) exponen de forma breve y adecuada las dos características que distinguen el concepto: (i) qué es y (ii) qué resultados genera. No obstante, 6(b) presenta la debilidad de categorizar como sinónimos a “sistema” y “componente”, cuando en realidad su significado es contrario en este contexto. En computación, cuando hablamos de “sistema”, nos referimos al conjunto de elementos o componentes conectados entre sí que llevan a cabo una determinada función. Sin embargo, un “componente” es la unidad básica que constituye cualquier sistema. Es probable que la intención del autor haya sido explicar que la condición se puede dar tanto en un sistema como en un componente. Una forma de evitar esta confusión y aclarar al usuario, sería indicar que se puede producir en ambas partes, tal que así: “dispositivo que detecta una condición y se pueda dar tanto en un sistema como en un componente.”.

Ninguno de los dos conceptos anteriores contiene palabas técnicas que entrañen dificultad para el usuario. Pese a ello, una persona que no tenga ningún conocimiento sobre informática puede tener problemas a la hora de su interpretación. Por ejemplo, 6(a) y 6(b) comienzan su definición describiendo “sensor” como un “dispositivo”. Con este término ocurre lo ismo que con “algoritmo”, “interfaz” y “aplicación”, es decir, no se emplean únicamente en el campo computacional, si bien, en la mayoría de los casos, su significado está relacionado con esta área. Para comprobar el uso común que tiene y hacer la comparativa, decidimos contrastar las acepciones que aparecen en el diccionario de la RAE (23.a ed., 2014) y en el diccionario francés Foucault. Nos ha parecido interesante escoger este diccionario francés debido al detenimiento y perfeccionismo con el que aparecen desglosados los conceptos, prestando especial atención al contexto en el que se sitúan. La RAE recoge cinco sentidos diferentes de la palabra, aunque solo nos centramos en dos, entre los que no se encuentra ninguna acepción referida a la tecnología. La primera tiene que ver con derecho y se desglosa como sigue: “dicho de una legislación: que se aplica a un contrato si las partes no establecen lo contrario”. La segunda es de carácter más general y se define así: “mecanismo o artificio para producir una acción prevista”. Por otro lado, Foucault recoge tres significados. El primero tiene un sentido estricto: “el dispositivo es la parte de un juicio que contiene la decisión por oposición a los motivos”. La segunda significación tiene un marcado de carácter computacional: “la manera en la que están dispuestas las piezas de una máquina o de un mecanismo, y, por extensión el mecanismo en sí mismo”. Y la tercera y última que recoge es una acepción militar: “el conjunto de medios dispuestos conforme a un plan”. Tras recopilar esta información, consideramos que el diccionario de la RAE debería incluir la acepción tecnológica entre sus definiciones porque, a pesar de su diversidad de usos, la palabra “dispositivo” aparece muy frecuentemente en combinaciones tales como “dispositivo de almacenamiento”, “dispositivos móviles”, “dispositivos electrónicos” o “dispositivos portátiles”. Esta incorporación al diccionario podría servir de ayuda para aquellos usuarios menos avezados en el mundo de la tecnología.

Otro término con cierto grado de dificultad es “sistema” y “componente”, que aparecen en 6(b). En este caso, “componente” se refiere a “hardware” (parte física de una computadora); “software” alude a las rutinas con las que trabaja una computadora, y “sistema” es la conexión de estos componentes.

Para ser más exactos en la definición de este concepto, sugerimos una proposición en la que se incluyan las características clave para tener más conocimiento sobre la palabra “sensor”. La base de la definición redactada a continuación tiene la siguiente estructura conceptual: (i) qué es, (ii) cómo funciona, (iii) con qué valores trabaja y (iv) para qué se utiliza. De tal forma, nuestra propuesta quedaría así: “un sensor es un mecanismo que reacciona a partir de una condición externa (temperatura, agua, humedad o clima). Es un componente clave en la movilidad de un robot: rotación, direccionalidad y autocontrol”. Además, al igual que en el resto de los términos objeto de estudio en este trabajo, incluimos un ejemplo para completar la definición: “el sensor me permitió lavarme las manos sin necesidad de tocar el grifo”.

Sistemas expertos

6.Sistema de apoyo de decisiones

“Sistema de apoyo de decisiones”

Wikipedia (a)

International Journal of Business andn Managament (b)

Definición

“An information system that supports business or organizational decision-making activities. DSS serves the managament, operations and planning levels of an organization (usually mid and higher management) and helps people make decisions about problems that may be rapidly changing and not easily specifies in advance - i.e. unstructured decision problems. Decisio support systems can be either fully computerized or human-powered, or a combination of both.”

“A decision support system or DSS is a computer-based system intended for yse by a particular manager or usually a group of managers at any organizational level in making a decision in the process of solving a semistructured decision. The DSS produces output in the form of periodic or special report or the results of mathematical.

Mi traducción

“Un sistema de información que respalda las actividades de toma de decisión empresarial organizacional. DSS atiende al mantenimiento, funcionamiento y fases de planificación de una organización (normalmente mantenimiento intermedio y alto) y ayuda a las personas a tomar decisiones sobre problemas que pueden cambiar rápidamente y no ser específicos con anterioridad, por ejemplo, problemas de decisión no estructurados y semiestructurados. El sistema de apoyo de decisiones puede estar completamente computarizado o impulsado por humanos o la combinación de ambos.

“Un sistema de apoyo de decisiones o DSS es un sistema informático dirigido para el uso de un administrador particular o generalmente grupo de administradores a cualquier nivel organizacional en la toma de decisiones en el proceso de resolver una decisión semiestructurada. El DSS produce una salida por medio de informes periódicos o específicos o a través de los resultados de simulaciones matemáticas”. (Ramond, 1990)

Tabla 7: Sistema de apoyo de decisiones

Análisis comparativo:

(a) Adecuación general:

El objetivo principal de los sistemas expertos es optimizar la actividad organizacional para adquirir una capacidad mayor y así aumentar la productividad. En la línea de investigación de estos sistemas encontramos una serie de palabra que se adecúan al término. De acuerdo con el procedimiento que siguen este tipo de sistemas, consideramos oportuno dividir las palabras elegidas en dos grupos. Por un lado, el estudio del estado de la organización entre las que incluimos: “interacción”, “organizaciones”, “estructuración”, “niveles”, “capacidad”, “lenguaje natural”, “gestión del conocimiento”, “competencias activas”, “base de hechos” y “condiciones”. Por otro, la valoración y respuesta final del sistema experto: “decisiones”, “informes”, “inferencia”, “toma de decisiones”, “razonamiento”, “conocimiento experto humano”, “representación”, “interfaz de usuario”, “procedimiento”.

Con el desarrollo de la IA, se ha incrementado el número de sistemas expertos en sectores como: (i) la medicina, (ii) la agricultura, (iii) la educación, (iv) el deporte y (v) el comercio.

(b) Adecuación específica

Anteriormente hablábamos de que las redes neuronales son el componente básico de gestión en la simulación del conocimiento, sin embargo, desconocíamos que los sistemas de apoyo de decisiones basados en la IA se sirven de este procedimiento para emitir una respuesta lo más parecida a la que podría emitir un sistema neural biológico. Para conocer más a fondo las propiedades intensionales inherentes a este término sugerimos esta relación de palabras clave: “sistema de información”, “toma de decisiones”, “estructuración”, “calidad”, “respuesta”, “procedimiento”, “evaluación”, “alternativas”, “problemas”, “análisis”, “percepción”, “aplicación”, “recursos”, “gestión”, “minería de datos”, “estadística”, “optimización”, “pronósticos”, “visualización de datos”, “agentes externos”, “planificación” y “eficiencia”.

(c) Principios lexicográficos

En lo que se refiere a la estructuración de las características, observamos que, en el caso de 7(a), éstas están organizadas de una forma menos eficiente y ordenada. Primero, la definición describe la función que realiza un “sistema de apoyo en las decisiones” y seguidamente hay un punto interno que repite la misma información y solamente añade como novedad los tipos de problemas que estos sistemas son capaces de solventar. Por tanto, esto puede considerarse una debilidad en 7(a), porque no permite desglosar claramente qué propiedades tiene el término. Una propuesta para mejorar la exposición de sus propiedades intensionales, de tal forma que aclare el significado para el usuario, debería hacer referencia a los siguientes componentes conceptuales: (i) qué es, (ii) cuál es su función, (iii) qué objetivos tiene y mencionar al menos una de sus aplicaciones. Sin embargo, 7 (b) expone con claridad: (i) lo que es, (ii) para qué sirve y (iii) cómo se genera, un aspecto que consideramos muy positivo y que, por tanto, clasificamos como fortaleza.

Tanto 7(a) como 7(b) presentan debilidades. Más concretamente, 7(a) incluye las siglas “DSS” que provienen del inglés y significan “Decision System Support”. Esto es un problema porque en este caso en particular no menciona explícitamente a qué se refiere este acrónimo, por lo que puede resultar opaco para el usuario medio. Por tanto, es necesario introducir una reformulación más precisa de este concepto: “un sistema de apoyo en las decisiones o también conocido como DSS (Decision System Support) respalda las actividades de toma de decisión empresarial u organizacional”. En cambio, se observa como 7(b)tiene este punto como fortaleza. A pesar de no indicarse el significado de “DSS”, se inserta al principio de la definición de la conjunción “o”, con la intención de mostrar que ambas cosas significan lo mismo. Siguiendo esta línea, 7(a) 7(b) contemplan una solución para problemas de organización estructurada o semiestructurada. Aunque esto no sea un tecnicismo, no resulta fácil de entender para un usuario de nivel medio bajo, principalmente porque no sabe a lo que se refiere en este contexto tan concreto; de ahí que creamos necesario explicarlo. Dependiendo de la jerarquía de una organización y también de sus necesidades, los niveles suelen estar más o menos planificados (estructurados o semiestructurados). Cuando hablamos de una estructuración exacta, nos referimos a sistemas operacionales (i.e., operaciones matemáticas), que están dirigidos por sistemas de ayuda computarizados, mientras que los sistemas de ayuda en las decisiones controlados por humanos están asociados a la planificación semiestructurada (Laudon y Laudon, 2004). La base de ambos proyectos consisten en: (i) identificar y definir el problema, (ii) determinar las posibles soluciones, (iii) analizar los criterios que se utilizarán para evaluar las alternativas, (iv) evaluar las alternativas, (v) elegir las alternativas más apropiadas, (vi) implementar las alternativas y (vii) evaluar los resultados(Anderson et al., 2009).

Tras analizar las debilidades y fortalezas que presenta cada definición, hemos decidido elegir 7(b) como nuestra propuesta definitiva, ya que nos parece la más apropiada en la medida en que detalla las propiedades generales y específicas de la forma más precisa posible. Así, entre las virtudes de dicha definición cabe, en nuestra opinión, citar las siguientes: (i) incluye la abreviatura y explicación del término, (ii) el descriptor inicial es el más concreto que se podría utilizar porque se refiere a un proceso interno, exclusivo en el campo de la computación, (iii) su objetivo primordial es solventar problemas y conseguir eficacia en cualquier organización y (iv) utiliza la estadística para formular los resultados. No obstante, hemos introducido una modificación al principio del concepto para evitar la circularidad lingüística de “sistema”. Por tanto, nuestra formulación alternativa quedaría así: “un sistema de apoyo de decisiones o DSS es un procedimiento informático dirigido al uso de un administrador particular o generalmente grupo de administradores a cualquier nivel organizacional en la toma de decisiones en el proceso de resolver una decisión semiestructurada. El DSS produce una salida por medio de informes perióticos o específicos o a través de los resultados de simulaciones matemáticas”. El uso del término “DSS” puede ilustrarse como sigue: “la empresa Mercadona utilizó un sistema de decisión de apoyo para una determinación correcta en su inversión en bolsa”.

7. “Deep Blue”

“Deep Blue”

Wikipedia (a)

M. Campbell et al./Artificial Intelligence 134 (2002) pp. 57-83 (b)

Definición

“Was a chess-player computer developed by IBM. It is known for being the first computer chess-playing system to win both a chess game and a chess match against a reigning world champion under regular time controls.”

“Deep Blue is the chess machine that defeated then-reigning World Chess Champion Garry Kasparov in a six-game match in 1997. There were a number of factors that contributed to this success, including: a single-chip chess search engine, a massively parallel system with multiple levels of parallelism, a strong emphasis on search extensions, and effective use of a Grandmaster game database.

Mi traducción

“Era una computadora que jugaba al ajedrez desarrollada por IBM. Es conocida por ser el primer sistema informático de ajedrez en ganar un juego y un partido contra el actual campeón mundial bajo un control regular de tiempo.”

“Deep Blue es una máquina de ajedrez que venció por entonces al campeón mundial de ajedrez, Garry Kasparov en seis juegos de un partido de 1997. Existían un número de factores que contribuyeron a su éxito, incluyendo: un motor de búsqueda de ajedrez de un solo chip, un sistema paralelo con varios niveles de paralelismo, gran énfasis en la búsqueda de extensiones y una aplicación eficaz en la base de datos del juego Grandmaster.”

Tabla 8: Deep Blue

Análisis comparativo

(a)Adecuación específica:

Con la evolución de la electrónica , podemos afirmar que los sistemas expertos casi son capaces de controlar la estructura de una entidad sin la ayuda del ser humano, simplemente empleando su propia lógica. El término “Deep Blue” compila una serie de palabras clave divididas en dos grupos: (i) gestión interna de la información y (ii) principales aplicaciones. En el primer grupo destacamos: “algoritmo”, “interfaz”, “software”, “procesamiento paralelo”, “microprocesadores”, “capacidad”, “factores” y “chip”. Y en el segundo nos referimos a: “computadora”, “lógica”, “juego de palabras”, “eficacia”, “rapidez”, “movimientos”, y “precisión”.

En la mayoría de los casos, los sistemas expertos se crean para implementar al ser humano, mejorando y compitiendo para alcanzar nuevas metas. Sin embargo, hasta la llegada de Deep Blue hace veinticuatros años, una máquina no habría puesto en jaque al ser humano y nunca mejor dicho. Según un artículo escrito en la revista argentina “La Nación”, tal fue el escándalo que el jugador de ajedrez Kaspárov denunció la intervención de un trabajador de IBM durante la partida en la que fue derrotado. Ésta fue una noticia que probablemente creyó todo el mundo ante la falta de creencia en las máquinas. Sin embargo, no existen pruebas científicas que demuestren fehacientemente la veracidad de esta información.

(b) Principios lexicográficos:

La definición 8(b) ofrece una formulación correcta del término, ya que divide el texto en cuatro partes. Las primeras líneas describen lo que es, mientras que los últimos mencionan las principales características que llevaron a esta máquina a ser tan exitosa. Por tanto, este aspecto nos da una pista de que, entre las dos alterativas que se presentan, 8(b) es la más acertada. Por el contrario, 8(a) es conceptualmente muy simple, refiriéndose únicamente a lo que es, sin mencionar las propiedades computacionales que lo conforman. Además, la definición 8(b) se formulan a través de una sintaxis enrevesada que puede provocar confusión al lector. Dicha definición reza como sigue: “Era una computadora que jugaba al ajedrez desarrollada por IBM. Es conocida por ser el primer sistema informático de ajedrez en ganar un juego y un partido contra el actual campeón mundial bajo un control regular de tiempo”. En nuestra opinión, la siguiente formulación será más transparente y eficiente: “Deep Blue es el primer sistema informático de ajedrez desarrollado por IBM, que consiguió ganar un juego y un partido contra el actual campeón mundial, bajo un control regular de tiempo”.

Un aspecto positivo para destacar en 8(a) y 8(b) es que ambas evitan la circularidad lingüística, exponiendo de forma clara las propiedades intensionales definitorias del término.

El 8(a), el único término que quizás desconcertar al usuario es “IBM”. Si comenzamos a leer, nos damos cuenta de que IBM es el creador del sistema “Deep Blue”. Sin embargo, nos parece interesante añadir información sobre qué o quién es IBM y sobre todo centrarnos en la colaboración de otros proyectos para saber su trayectoria. IBM son las siglas en inglés de “International Business Machine”. Según el experto Rex Malik, IBM es la empresa de servicios tecnológicos más grande del mundo que empezó su actividad durante la Segunda Guerra Mundial. Los servicios que ofrece son a través de software libre (libertad de los usuarios para la gestión y mejora de los programas) y su mayor contribución tecnológica fue la suprema creación del robot Watson12 hace aproximadamente cinco años.

Por otro lado, 8(b) tiene otras debilidades relacionadas con el uso de las palabras técnicas. Más concretamente, en este caso, nos referimos a: (i) “el motor de búsqueda de un solo chip”, (ii) “un sistema paralelo con varios niveles de paralelismo” y (iii) “la aplicación especial en la base de datos de Grandmaster”. Estas expresiones son muy propias del área computacional y sin duda el usuario tiene que estar muy interesado/a en la tecnología para entender estos conceptos sin dificultad. Cuando hablamos de “motor de búsqueda de un solo chip”, nos referimos a que en el interior de la máquina se buscan los términos exactos que se demandan en un “mini cerebro” que procesa la información (i.e. chip) para que el resultado sea lo más preciso posible. En el caso de “un sistema paralelo con varios niveles de paralelismo”, se hace referencia a una multitud de procesos simultáneos que se generan. Por último, la expresión “la aplicación especial en la base de datos de Grandmaster” quiere decir que la información solicitada en la base de datos (datos almacenados sistemáticamente) está estrechamente vinculada con un Grandmaster (gran maestro), campeón del torneo internacional de ajedrez.

Después de nuestro estudio y a pesar de las debilidades que presenta 8(b), consideramos adecuado seguir con esta propuesta, ya que explica tres de las características más importantes para entender el concepto: (i) define lo que es, (ii) explica por qué es importante, y (iii) detalla sus aplicaciones. En la proposición que hemos elaborado, creemos oportuno introducir los siguientes cambios estilísticos en la estructura: (i) indicar al principio quién ideó este invento, (ii) por qué en la actualidad hablamos de él y (iii) explicar cuál es la base de este proyecto. Por tanto, nuestra propuesta quedaría como sigue: “Deep Blue es una máquina de ajedrez desarrollada por IBM. Fue capaz de vencer al campeón del mundo, Garry Kasparov en seis juegos de un partido en 1997. Estos son los factores que contribuyeron a su éxito cabe mencionar los siguientes: (i) un motor de búsqueda de ajedrez de un solo chip (para acelerar el proceso y obtener un resultado preciso), (iii) gran énfasis en la búsqueda de extensiones (para tener más exactitud) y (iv) una aplicación eficaz en la base de datos del juego Grandmaster (para ser extraordinario). Un ejemplo representativo del uso de este término podría ser el siguiente: “Deep Blue, la máquina capaz de poner en duda la capacidad del ser humano”.

Conclusiones

Como es sabido, la IA es una disciplina científica relativamente nueva. Es un área del conocimiento que todos deberíamos estudiar, explorar, investigar y mejorar para aumentar su rendimiento y aprovechar los beneficios sociales, económicos, científicos, industriales y medioambientales que nos ofrece.

Para realizar cualquier trabajo práctico dentro del campo de la IA es muy importante ser preciso, teniendo en cuenta con qué rama del conocimiento vamos a tratar. En otras palabras, si estamos hablando de gesticulación, movimientos y giros nos posicionamos en la categoría de robótica y electrónica. Por el contrario, si nos referimos a cómo un robot aprende a contar chistes, estaríamos dentro del procesamiento del lenguaje natural (PLN) y el aprendizaje de patrones o modelos. Particularmente, en un glosario este detalle debe estar cuidado porque pueden tener acceso usuarios con diferentes niveles de conocimiento y esta clasificación, sin duda, puede ayudarles a identificar mejor las funciones de un término. Ésta es una insuficiencia que hemos observado en todas las fuentes de referencia empleadas, a excepción de la enciclopedia Wikipedia. Por eso, hemos agrupado los conceptos en estas líneas de investigación: (i) comprensión y generación del lenguaje natural, (ii) visión artificial, reconocimiento de patrones o formas y aprendizaje automático, (iii) robótica y (iv) sistemas expertos.

La evidencia del análisis crítico que hemos realizado demuestra que, en términos generales, la no inclusión de las propiedades intensionales necesarias en la descripción de un significado incrementa la dificultad de descifrar a qué concepto nos referimos, puesto que no estamos señalando las características básicas que lo definen. A pesar de que este problema ocurre en la gran mayoría de los conceptos elegidos para nuestro estudio, nos hemos centrado en un caso en particular para verificar lo que estamos hablando y sobre todo para conocer qué solución hemos aplicado. Para ello, centraremos de nuevo nuestra atención en la definición 1(a) del término “tipo de dato abstracto”. Esta definición no expone con claridad las propiedades intensionales relevantes del término porque solamente hace referencia a lo que es y la función que tiene. Sin embargo, cuando hablamos de “tipo de dato abstracto” es fundamental tener en consideración los datos o la información recibida, ya que es un proceso que arroja un resultado dependiendo de la estructuración de estos datos. A partir de aquí y teniendo en cuenta estas pesquisas, hemos creado un apartado en el documento denominado “adecuación específica”, donde seleccionamos un conjunto de palabras que respondan a las cuestiones básicas de gestión de la información: (i) percepción, (ii) procesamiento, (iii) manipulación y (iv) resultados. Esperamos que la propuesta de revisión crítica de determinados términos de un glosario de IA pueda servir a futuros usuarios y/o investigadores en esta u otras áreas de conocimiento en el futuro.

Bibliografía

  • “El Robot Watson estudia medicina”. Periódico El País, 2013. Web 23 julio. 2020.

  • “International Organization For Standardization.” ISO. ISO. 2020. Web. 10 junio. 2020. https://www.iso.org/home.html

  • “The World’s Largest Technical Professional Organization Dedicated To Advancing Technology For The Benefit of Humanity.” IEEE. IEEE - Advancing Technology for Humanity. 2017. Web. 15 junio. 2020. https://www.ieee.org.

  • Abarca Álvarez, Francisco Javier & Campos Sánchez, Francisco Sergio. “Inteligencia Artificial Para La Lingüística Urbana.” XVIII Conferencia de la Asociación Española de Lingüística, vol. 11, no. 55, 2016: 55-60. Web. 24 junio 2020.

  • Albaladejo Mayordomo, Tomás: “Aspectos del Análisis Formal de Textos.” Revista Española de Lingüística, vol 11, no. 1, 1981: 117-60. Web. 02 junio. 2020.

  • Alcina, Amparo, et al. “Análisis de las Definiciones del Diccionario Cerámico Científico-práctico. Sugerencias para la Elaboración de Patrones de Definición".” Debate Terminológico. ISSN: 1813-1867, Vol.0, no. 04, 2011: 1-12. Web. 01 junio. 2020.

  • Allende, H. et al. “Artificial Neural Networks in Time Series Forecasting: A Comparative Analysis: “Kybermetika”, Vol. 36, no. 6, 2002: 685-707.

  • Anabel Vega Calcines. “Algoritmos de Aprendizaje Automático: Aplicación en la Solución a Problemas Medioambientales.” Cuadernos de Educación y Desarrollo, no. 49, 2014: 1-9. Web. 8 julio. 2020. http://atlante.eumed.net/wp-content/uploads/algoritmos.pdf

  • Asemi, Asefeh, et al. “The Role of Management Information System (MIS) and Decision Support System (DSS) for Manager’s Decision Making Process.” International Journal of Business and Management, vol. 6, no. 7, 2011: 2-4. Web 05 mayo. 2020.

  • Barón, Leonardo. “La Teoría Lingüística de Noam Chomsky. Revisión Crítica Centrada en el Innatismo Semántico y Su Estado Empírico.” Revisión Crítica Centrada en el Innatismo Semántico y su Estudio Empírico, no. Enero 2010, 2010: 1-120.

  • Barón, Leonardo, et al. “La Teoría Lingüística de Noam Chomsky: Del Inicio a la Actualidad.” Lenguaje 42.2, (2014): 4172-442. Web. 30 abril. 2020. https://www.researchgate.net/profile/Oliver_Mueller/publication/317501947_La_Teoría_Linguistica_de_Noam_Chomsky_del_Inicio_a_la_Actualidad/links/596e06d7aca272d55fe5b40/La-Teoria-Linguistica-de-Noam-Chomsky-del-Inicio-a-la-Actualidad.pdf

  • Bishop, Cristopher M. “Neural Network”. Pattern Recognition and Machine Learning, New York, NY: Springer, 2006: 225-284. Impreso.

  • Broadbent, Donald Eric. “Perception and Communication”. Edited by Oxford University Press, 1987. Ilustrada.

  • Bryzek, Janusz. “The evolution of Smart sensor and transducer design. “Sensors-Peterborough-10, 1993: 12. Web. 04 julio. 2020.

  • Cabré, M. Teresa. “La terminología. La Teoría, els mètodes, les aplicacions,” Barcelona: Empùries, 1992.

  • Caño, A., & Luque, J. L. “El conexionismo: Un Nexo entre las Neurociencias y las Ciencias Cognitivas.” Contrastes. Revista Internacional de Filosofía, 1970. Web. 27 junio. 2020.

  • Chomsky, Noam. “The Logical Structure of Linguistic Theory.” Editored ny M.I.T. Library, 1955.

  • Custodio Ruiz, Ángel, et al. “Sensores Inteligentes: Una Historia Con Futuro.” Buron, no. 14, 1999: 13-18. Web. 23 julio. 2020.

  • De Bessé, Bruno. “Terminological Definitions.” En S. Ellen Right & G. Budin (eds), Handbook of Terminology Management: Volume 1 (Basic Aspects of Terminology Management). Ámsterdam: John Benjamins, 1997: 63-74. Web. 04 junio. 2020.

  • Diccionario de la Real Academia Española. 23. ª ed., [versión 23.3. en línea] 2014. Web. 19 junio. 2020. https://www.rae.es/.

  • Dolezel, Lubomir. “Extensional and Intensional Narrative Words.” Poetics 8.1-2. 1979: 193-211. Web. 26 julio. 2020.

  • El-Najdawi, M.K. & Stylianou, Anthony C. “Expert Support Systems: Integrating AI Technologies.” Communications of the ACM, vol. 36, no. 12, 1993: 55-65. Web. 27 julio. 2020.

  • Felger, Jason E., et al. “The evolution of and early experience with robot-assisted mitral valve surgery.” Surgical Laparoscopy Endoscopy & Percutaneous Techniques 12.1 (2002): 58-63. Web. 30 junio. 2020.

  • Fredholm, Daniel. “Intensional Aspects of Function Definitions.” Theoretical Computer Science, vol. 152, no. 1, 1995: 1-66.

  • Guillem Monzonís, C. & Guillem Villar, M.C. Diccionario Cerámico Científico-Práctico (Español-Inglés-Alemán-Francés). Valencia: Sociedad Española de Cerámica y Vidrio, Valencia (1987). Web. 15 julio. 2020.

  • Hamilton, William L, et al. “Diachronie World Embeddings Reveal Statistical Laws of Semantic Change.” 54th Annual Metting of the Association for Computational Linguistics, ACL 2016-Long Papers, Vol. 3, 2016: 1489-501.

  • Anderson, W. B. et al. “Decision support systems in water and wastewater treatment process selection and design: a review”. Water Science and Technology 60.7 (2009): 1757-770. Web. 18 junio. 2020.

  • High-Level Expert Group on Artificial Intelligence: “A Definition of AI: Main Capabilities and Disciplines”. European Commission, 2018: 1-9. Web. 13 julio. 2020.

  • https://elpais.com/tecnologia/2013/02/14/actualidad/1360843243_867994.html.

  • https://www.sciencedirect.com/science/article/pii/0304422X79900202

  • Larrañaga, Pedro, et al. “Tema 8, Redes Neuronales”. Redes Neuronales, Universidad del País Vasco 12, (1997): 4-15. Web. 03 julio. 2020. http://68.183.100.199/libroNNA/t8neuronales.pdf

  • Ludon, Kenneth C., & Laudon, Jane P. “Managing the digital firm.” Managing Information Systems, 2004: 197-200. Web. 06 julio. 2020.

  • León, José Antonio. “La Psicología Cognitiva a través de la Comprensión de Textos”. Revista de Psicología General y Aplicaciones, 1996, 49 (1), 13-25. Web. 19 junio. 2020.

  • Lugo-Reyes, Saúl Oswaldo, et al. “Inteligencia Artificial para Asistir el Diagnóstico Clínico en Medicina”. Revista Alergia México, vol 61, no. 2, 2014: 110-20. Web. 30marzo. 2020.

  • Marvin Minsky. “Steps Toward Artificial Intelligence.” 1961.

  • Matich, Damián Jorge. “Redes Neuronales: Conceptos Básicos y Aplicaciones.” Historia, 2001: 12-18. Web. 01 julio. 2020. ftp://decsai.ugr.es/pub/usuarios/castro/Material-Redes-Neuronales/Libros/matich-redesneuronales.pdf

  • McClelland, J.L, et al. “Parallel distributed processing exploration in the microstructure of cognition.” Psychological and Biological Models. Cambridge: MIT Press, 1986. Web. 23 mayo. 2020.

  • Mattingly-Jordan, Sara, et al. “Ethically Aligned First Edition Glossary.” The IEEE Global Initiative, 2017: 1-92. Web. 25 abril. 2020. https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead1e_glossary.pdf?utm_medium=undefined&utm_source=undefined&utm_campaign=undefined&utm_content=undefined&utm_term=undefined.

  • Miller, George A. “La Revolución Cognitiva: Una Perspectiva Histórica”. Department of Psychology, Princenton University, USA. No. 3, 2004: 1-6. Web. 7 julio. 2020.

  • Moreno, Antonio, et al. “Introducción”. Aprendizaje Automático. Universidad Politécnica de Cataluña, 1994: 1-15. Web. 03 julio. 2020.

  • Murray Campbell, A. et al. “Deep Blue”. Artificial Intelligence 134. 1-2, (2002): 57-83. Web. 06 julio. 2020. https://www.sciencedirect.com/science/article/pii/S0004370301001291

  • Ramesh, A. N., et al. “Artificial Intelligence in Medicine.” Annals of the Royal College of Surgeons of England, vol. 86, no. 5, 2004: 334-338. Web. 28 marzo. 2020.

  • Rodríguez Suárez, Yuniet & Díaz Amador, Anolandy. “Herramientas de Minería de Datos.” Revista Cubana de Ciencias Informáticas 3.3-4, (2009): 73-80. Web. 10 julio. 2020. https://www.radalyc.org/pdf/3783/378343637009.pdf.

  • Ramón y Cajal, S. “Textura del Sistema Nervioso del Hombre y de los Vertebrados”, 1899.

  • Samuel, Arthur L. “Some Studies in Machine Learning Using the Game of Checkers”. IBM Journal of research and development 3.3., (1959): 2-21. Web. 17 julio, 2020. https://ieeexplore.ieee.org/abstract/document/5392560/.

  • Sánchez Sánchez, Mercedes & Domínguez Cintas, Carlos. El Banco de Datos de La Real Academia Española, CREA y CORDE. No. 2, 2007: 137-48. Web. 12 abril. 2020. https://dialnet.unirioja.es/servlet/artículo?codigo=2210249.

  • Shannon, C., et al. “Automata Studies”. Annals of Mathematics Studies. Princeton University Press, 1956.

  • Sidorov, Griorui. “N-gramas Sintácticos y su Uso en la Lingüística Computacional”. Vectores de investigación 6.6, (2013): 69-78. Web. 23 julio. 2020. https://biblat.unam.mx/pt/revista/vectores-de-investigación/artículo/n-gramas-sintáctivos-y-su-uso-en-la-lingüística-computacional.

  • Siebes, A. “Data Mining and Statistics.” Computational Intelligence in Data Mining: Springer, Vienna, 2000: 1-38.

  • Sobrado Malpartida, Eddie, et al. “Sistema de Visión Artificial para el Reconocimiento y Manipulación de Objetos Utilizando un Brazo Robot. “ CISCI 2008 - Séptima Conferencia Iberoamericana en Sistema, Cibernética e Informática 5to SIECI, 2008: 134-139.

  • Steels, Luc. “Computational Issues in Fluid Construction Grammar.” Lecture Notes in Computer Science, vol. 7249, 2012. Web. 04 abril. 2020. http://www.worldcat.org/oclc/817662061%5Cnfile:///C:/Users/JensLanwer/Documents/Citavi 5/Projects/DFG-Projekt Appositionen (3)/Citavi Attachments/Steels 2012 - Computaional issues in fluid construction.pdf

  • TERMCAT. “Metodología del treball terminològa.” Barcelona: Department de Cultura de la Generalitat de Catalunya, 1990.

  • Towell, Geoffrey G. & Shavlik, Jude W. “Knowledge-Based Artificial Neural Networks”. Artificial Intelligence, vol. 70, no. 1-2, 1994: 1-4. Web. 17 junio. 2020.

  • Valero Doménech, Esperanza: “Análisis de las Definiciones y Elaboración de un Patrón Definitorio del Grupo de Términos “Defectos del Producto”. Jornadas de Fomento a la Investigación, Universidad de Jaume I. ISSN: 1139-5486, 2007: 1-12. Web. 18 junio. 2020.

  • Veiga-Neto, Alfredo. “Diccionario Foucault: Temas, Conceptos y Autores.” Revista Latinoamericana de Filosofía, vol. 38, no. 2, 2012: 284-86. Web. 21 julio. 2020.

  • Viganó, Francesco & Colombetti, Marco. “Specification and Verification of Institutions through Status Functions.” Lecture Notes in Computer Science (Including Subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics”), vol, 4386 LNAI, 2007: 115-29. Web. 28 julio. 2020.

  • Villayandre Llamazares, Milka. “Aproximación al Tratamiento del Lenguaje desde la Perspectiva de la Inteligencia Artificial (IA).” Estudios Humanísticos. Filología 24, (2002): 199-228. Web. 11 junio. 2020. Dialnet-AproximacionalTratamientodelLenguajedesdelaPerspec-265467.pdf

  • Wijaya, Derry Tanti, & Reyyan Yeniterzi. “Understanding Semantic Change of Words over Centuries.” International Conference on Information and Knowledge Managamente, Proceedings, 2011: 35-40.

Comments
0
comment
No comments here
Why not start the discussion?