PROMETEICA - Revista de Filosofia y Ciencias. 2025, v. 32
Artículos
https://doi.org/10.34024/prometeica.2025.32.19619
ETHICAL IMPLICATIONS RELATED TO THE USE OF ARTIFICIAL INTELLIGENCE IN THE GENERATION OF ACADEMIC RESEARCH
IMPLICAÇÕES ÉTICAS RELACIONADAS AO USO DE INTELIGÊNCIA ARTIFICIAL NA GERAÇÃO DE PESQUISAS ACADÊMICAS
Paula Andrea Usquiano Yepes
(Politécnico Grancolombiano, Colombia)
Lina María Valencia Gallo
(Politécnico Grancolombiano, Colombia)
lmvalenciag@poligran.edu.co
Diana Marcela Botero Zuluaga
(Politécnico Grancolombiano, Colombia)
Edier Adolfo Giraldo Jiménez
(Politécnico Grancolombiano, Colombia)
Recibido: 18/10/2024
Aprobado: 05/02/2025
RESUMEN
El objetivo general de este artículo se concentra en abordar desde un enfoque holístico, las implicaciones éticas relacionadas con el uso de la Inteligencia Artificial, en adelante IA, en la generación de contenidos académicos. Se abordan en este artículo tres elementos clave: un estado del arte sobre las IA de mayor demanda en el ámbito académico actual; las implicaciones éticas vinculadas al plagio, la originalidad y el fraude, y finalmente, la caracterización de las herramientas de veeduría de contenidos académicos generados por IA. La investigación se enmarca dentro de un enfoque cualitativo, cuya fuente de recolección de información es documental y desde el nivel o grado de conocimiento generado es una investigación descriptiva. La principal conclusión a la que llega esta investigación consiste en advertir las bondades de las herramientas de inteligencia artificial en la optimización de tareas de académicas e investigativas, pero también advertir de las implicaciones éticas desafortunadas que puede implicar el uso de dichas herramientas cuando no se utilizan responsablemente, sobretodo en el campo de la investigación académica. Pues existen muchas herramientas de inteligencia artificial que pueden auxiliar al investigador en lo que respecta la realización de tareas como recolección, sistematización y análisis de los datos y
la información, la revisión de la escritura, las citas y referencias, entre otras; pero también existe el riesgo de pérdida de originalidad en la investigación.
Palabras clave: inteligencia artificial. ética. investigación académica. responsabilidad.
ABSTRACT
The general objective of this article focuses on addressing, from a holistic approach, the ethical implications related to the use of Artificial Intelligence, hereinafter AI, in the generation of academic content. Three key elements are addressed in this article: a state of the art on the AIs that are most in demand in the current academic field; the ethical implications linked to plagiarism, originality and fraud, and finally, the characterization of the monitoring tools for academic content generated by AI. The research is framed within a qualitative approach, whose source of information collection is documentary and from the level or degree of knowledge generated it is descriptive research. The main conclusion reached by this research is to warn of the benefits of artificial intelligence tools in optimizing academic and research tasks, but also to warn of the unfortunate ethical implications that the use of said tools can entail when they are not used. responsibly, especially in the field of academic research. Well, there are many artificial intelligence tools that can help the researcher in carrying out tasks such as collecting, systematizing and analyzing data and information, reviewing writing, citations and references, among others; but there is also the risk of loss of originality in the research.
Keywords: artificial intelligence. ethics. academic product. responsibility. fraud.
RESUMO
O objetivo geral deste artigo se concentra em abordar, a partir de uma abordagem holística, as implicações éticas relacionadas ao uso da Inteligência Artificial, doravante IA, na geração de conteúdos acadêmicos. Três elementos-chave são abordados neste artigo: um estado da arte sobre as IA de maior demanda no âmbito acadêmico atual; as implicações éticas vinculadas ao plágio, à originalidade e à fraude; e, por fim, a caracterização das ferramentas de monitoramento de conteúdos acadêmicos gerados por IA. A pesquisa se enquadra dentro de uma abordagem qualitativa, cuja fonte de coleta de informações é documental e, quanto ao nível ou grau de conhecimento gerado, trata-se de uma pesquisa descritiva. A principal conclusão a que esta pesquisa chega consiste em alertar para os benefícios das ferramentas de inteligência artificial na otimização de tarefas acadêmicas e de pesquisa, mas também advertir sobre as implicações éticas desfavoráveis que o uso dessas ferramentas pode acarretar quando não utilizadas de forma responsável, especialmente no campo da pesquisa acadêmica. Existem muitas ferramentas de inteligência artificial que podem auxiliar o pesquisador na realização de tarefas como coleta, sistematização e análise de dados e informações, revisão da escrita, citações e referências, entre outras; porém, também há o risco de perda de originalidade na pesquisa.
Palavras-chave: inteligência artificial. ética. pesquisa acadêmica. responsabilidade.
J Bryson (2018), con fundamento en los estudios de Widrow (1994), cita la necesidad de comprender cuáles son los alcances y los límites de la IA en cualquier dimensión que ésta se aplique, especialmente porque cuando se tiene conocimiento de sus “Límites”, consecuentemente se pueden visualizar sus más ambiciosos poderes al servicio de la humanidad, entre tanto, aun no se puede hablar a ciencia cierta de la IA autónoma, consciente y, por ende, ambiciosa.
Saber entonces que la IA ha tenido desarrollos motivados por intereses específicos de solucionar tareas complejas, enmarcadas en el aprendizaje automático (AA), en los algoritmos genéticos, en situaciones problémicas de difícil resolución computacional, en la planificación de sistemas operativos informáticos y redes neuronales, todos con el ideal de modelizar y comprender el aprendizaje humano, es solo el primer acercamiento a los alcances de la IA en virtud de solucionar los problemas que el ser humano intenta resolver mediante esta herramienta.
Pero, sin lugar a dudas, la IA hoy se ha convertido en una amplia e imparable fuerza tecnológica de aplicación a todas las dimensiones del hombre, especialmente porque la innovación en sus algoritmos le ha permitido ingresar a la vida cotidiana en forma de vehículos, armas, dispositivos para el hogar y para la producción de bienes y servicio, para la recreación y el entretenimiento, dando una idea más fuerte de lo que es ser una sociedad automatizada.
Aun con esta inmersión de la IA en las esferas sociales, es fundamental saber que ésta NO debe concebirse teórica, conceptual ni empíricamente como una extensión de la inteligencia humana, circunscrita no sólo a la capacidad de generar ideas y conocimientos, de hacer lo correcto en el momento adecuado y de aplicar la conciencia en estas elaboraciones antes de actuar, o lo que es igual a usar el sistema cognitivo para reflexionar (J. Bryson, 2008).
Mas recientemente (Lee, 2019) manifiesta que la inteligencia artificial transformará muchos escenarios de la vida humana, incluyendo el educativo, así como también otros ámbitos, tales como el laboral, económico, jurídico, etc. Pero ello no quiere decir que la IA vaya a desplazar el pensamiento y el trabajo humano; la creciente aplicación de las Herramientas de IA exige la adaptación del ser humano a dichos cambios, pero no necesariamente implica la desaparición de la inteligencia humana.
Ciertamente, la cognición, la reflexión, el pensamiento, la conciencia y a autoconciencia, las emociones y la empatía, la creatividad, la intuición y el juicio, el conocimiento experiencial, las habilidades motoras, el pensamiento abierto y la abstracción profunda; y la adaptación a situaciones nuevas y ambiguas, son algunas condiciones mentales y capacidades características del ser humano y que a la fecha no han podido ser replicadas completamente por la IA, razón por la que hoy, la responsabilidad del uso y desarrollo de estas herramientas, recaen netamente en el ser humano, llámese usuario, desarrollador o propulsor, dado que sólo a partir de su raciocinio y de la forma en que direccione el uso de la IA, será juzgado ante la sociedad siempre vigilante.
Es así como recae en el ser humano una responsabilidad de grandes proporciones y una de ellas es la de tratar éticamente la IA como una herramienta para la creación de contenidos académicos, un tema que requiere de discusiones holísticas en torno al quehacer educativo, pero también a las consecuencias legales que tiene el mal uso de la IA en ambientes pedagógicos en el nivel superior, entendiendo posiciones de educandos, de formadores o docentes y de investigadores.
Es entonces que este artículo tiene la intención de abordar desde un enfoque de investigación cualitativa, documental y descrotiva, las implicaciones éticas relacionadas con el uso de la IA en la generación de contenidos académicos, para lo cual se ha establecido una estructura basada en el capítulo II de la tesis doctoral titulada “Análisis de la responsabilidad jurídica y ética de los equipos técnicos en el desarrollo de inteligencia artificial en el marco del derecho procesal colombiano” (Usquiano Yepes, 2023), acerca de la ética como fundamento para el uso asertivo de la IA, con el aporte de Garzón (2019) y de Arenas (2020) en torno al tema de las condiciones necesarias para la formación del carácter de estudiantes universitarios con perfiles de líderes.
En este artículo se tuvieron en cuenta 45 procesos legales de 7 países latinoamericanos y 2 europeos, vinculados faltas a la ética académica, especialmente en temas de plagio, fraude y transparencia académica, cuyos análisis fueron realizados por autores como Matzavela y Alepis (2021). Así mismo se gestó un estado del arte que abordó 50 estudios relacionados con la ética académica, IA en entornos educativos y las implicaciones jurídicas de las faltas a la ética académica, destacando como fuente
principal la base de datos Mendeley y en especial, casos mencionados por Marciales et al (2023) acerca de algunas variables asociadas al plagio académico en Colombia (Marciales Parra, 2023).
Se optó por el uso de herramientas investigativas de corte cualitativo, con un método descriptivo, exploratorio, bajo técnica documental y fortalecido por un método etnográfico en escenarios educativos superiores.
Es claro entonces que la intención fundamental es abordar las implicaciones éticas que trae consigo el uso de la IA en entornos académicos, entendiendo estas implicaciones como el resultado de un abordaje teórico fundamentado en las posturas de Rebeca Ferguson, Neul Selwyn, Ben Willianson, Karen Hao y Kathleen Richardson en (European Commission, 2019), aunado a las reflexiones de Taruffo (2006) y de Corbino (2020), además del análisis de causales de falta a la ética académica identificadas en el estado del arte de los procesos legales estudiados.
En este orden de ideas, se han seleccionado las siguientes faltas a la ética académica: 1. Plagio y originalidad. 2. Equidad y sesgo. 3. Transparencia y responsabilidad. 4. Reemplazo de empleo y 5. Ética de la investigación (Stanford University, 2023), las mismas que han sido estudiadas por la Universidad Stanford y publicadas en el Informe anual del índice de IA, un estudio desarrollado por el Comité Directivo del Índice AI y por un grupo interdisciplinario de expertos del mundo académico y de la industria.
Estas faltas o riesgos éticos asociados al uso de herramientas de Inteligencia artificial, fueron el resultado de una investigación sobre la legislación mundial sobre IA de 25 países en 2022 y de 127 en el año 2023, destacando que el “número de incidentes y controversias sobre la IA ha aumentado 26 veces desde 2012” (Stanford University, 2023), y fueron las conclusiones del estudio, las que dieron paso a la hipótesis principal de este artículo: existen implicaciones éticas relacionadas con el uso de la IA en la generación de contenidos académicos, y éstas desembocan en actuaciones vinculadas a faltas a la ética académica.
Donald McCabe (1997) ha estudiado extensamente el amplio tema de la ética académica y su concordancia directa con los principios y las normas que regulan la conducta ética y las prácticas profesionales en contextos educativos de nivel superior y de la investigación académica.
Amparado en las reflexiones de estos investigadores, McAleenan (2020) logró ampliar y detallar los siguientes principios: 1. Honestidad. 2. Integridad. 3. Originalidad. 4. Respeto por la diversidad. 5. Responsabilidad y 6. Transparencia, atendiéndolos como la base fundamental para una práctica académica éticamente responsable y, por tanto, la presencia de estos principios en las acciones de una comunidad educativa representa la imagen de lo que debería ser la relación entre educadores, educandos y administradores de la educación en el mundo de hoy (McAleenan, 2020).
Pero ciertamente surgen situaciones que no pasan desapercibidas en los entornos educativos superiores y que ya tienen vieja data, especialmente vinculados con temas como el plagio, el fraude y la falta a la transparencia educativa, tal como se evidencia en el acervo de procesos utilizados para el estado del arte de esta investigación.
Como se evidencia en el estado del arte mencionado, existen tantos escenarios de vulneración a la ética académica como es posible imaginarse, pero al popularizarse la IA, también se ha originado una explosión de accesos a los datos emanados de diferentes plataformas que conglomeran material que potencialmente puede usarse en virtud de la generación de contenidos académicos, llevando a desconocer las características de este material, confundiéndolos con información que ha sido reflexionada y sometida a la cognición humana.
Al respecto, según Buckland (2005), es determinante saber que las IA emiten datos, es decir, la unidad mínima de información, NO tiene significado por sí sola, mientras que para que dicho dato pueda
considerarse “Información”, requiere del procesamiento, la organización, la reflexión y cognición humana para que tenga significado y utilidad (Buckland, 2005).
En el mismo sentido, en tiempo más actual (Carrion, 2017), distingue los conceptos de dato, información y conocimiento, entendiendo por el primero como un conjunto discreto de características objetivas de la realidad que no explica el por qué de las cosas; el segundo, es decir la información es un mensaje con sentido que trasmite contenido y que significa “dar forma”. Y el conocimiento es algo más amplio y profundo que involucra experiencias, valores, información y saber hacer. Lo que permite comprender entonces que el conocimiento incluye la información y que la información incluye los datos.
Mario Bunge define la ciencia como un conjunto de conocimientos metódicamente adquiridos y sistemáticamente relacionados, enseñando que la ciencia agrupa conocimientos, y estos a su vez exigen información que en última instancia se compone de datos. Es decir, que los datos pueden definirse como la unidad mínima de sentido que utiliza el ser humano para entender y expresar la realidad. (Bunge, 2021)
Desde el punto de vista lógico, ontológico y epistemológico, la realidad que se expresa a través del lenguaje se compone, básicamente, de tres elementos estructurales, a saber: concepto, juicio y raciocinio (silogismo). El concepto es la primera aprehensión de la mente, la representación ideal de los entes, como por ejemplo el concepto de mamá, amor, casa, etc. Tres conceptos forman un juicio o proposición, que es una frase con sentido que afirma o niega, conjuga o divide, como, por ejemplo: Mi mamá me ama, la casa es azul o Juan es culpable de homicidio doloso. (Castaño, 2005)
El tercer elemento estructural y más complejo es el silogismo, denominado también inferencia o razonamiento lógico, que está compuesto de tres premisas, cada uno de los cuales es una proposición. La primera premisa es general y abstracta, el segundo particular y concreta y la tercera es la conclusión, que surge como resultado de la relación entre la premisa mayor y la premisa menor, como, por ejemplo: Premisa mayor: Todo el que engendre un hijo deberá velar por su cuidado y alimentación. Premisa menor: Juan engendró a su hijo Carlos. Conclusión: Juan debe velar y alimentar a su hijo Carlos. (Jiménez, 2023)
La materia prima de las herramientas de inteligencia artificial son los datos, que se relacionan para formar información y estos a su vez generan conocimiento, emulando la manera como el cerebro humano genera genuinamente las ideas (datos) que se relacionan formando proposiciones y pensamientos más complejos como los silogismos y razonamientos. Ello es posible gracias al desarrollo investigativo de la neurociencia, particularmente en lo que respecta a las redes neuronales. Al respecto afirma Rafael Yuste: “Los recientes avances en neuro tecnología e inteligencia artificial están permitiendo un acceso mayor y más rápido a la información acumulada en el cerebro de animales y personas”. (Yuste, 2019, pág. 8)
Así las cosas, sí un usuario de la IA pretende que el material que emite puede tener la categoría de “Información”, cae en el error conceptual más crítico que puede darse entre el usuario y la herramienta, dado que, en consecuencia, no aplicará esfuerzos mentales para discernir, analizar, reflexionar, proyectar y elaborar desde el ejercicio académico profundo, los postulados que requiere el contenido académico ético de calidad y de alto impacto.
Surgen entonces dos situaciones problémicas: 1. La falta de conocimiento cabal de la IA y de la naturaleza del material que emana de ella y 2. La aceptación de los datos que arroja la IA como instrumentos válidos para la creación de contenidos académicos.
Ante esta situación que pareciera solucionarse con la conceptualización sobre la naturaleza del material que genera la IA, surge la intención de este artículo: descubrir sí en el escenario académico de nivel superior, se presentan o no actuaciones que faltan a la ética educativa en el ejercicio de generación de contenidos, especialmente vinculados al uso de la IA como fuente de datos y no de información.
Concretamente, este artículo propone tres objetivos específicos: 1. Generar un estado del arte acerca de las IA de mayor demanda en el ámbito académico actual. 2. Identificar las implicaciones éticas
vinculadas al plagio, la originalidad y el fraude en la producción de contenidos académicos originados por IA a partir del análisis de estudios de caso relacionados con faltas a los derechos de autor y 3. Caracterizar las herramientas y tecnologías que propenden por la veeduría de contenidos académicos generados por la IA.
Como primer elemento de análisis aclaratorio, es preciso entender sí la IA es o no una fuente de datos e información éticamente aceptable, razón por la cual es pertinente citar a Calo (2015), quien afirma que la inteligencia artificial (IA) ha demostrado un potencial para recopilar y generar grandes cantidades de datos e información, convirtiéndose en una herramienta omnipresente en la sociedad, razón por la cual se hace necesario garantizar que los datos y la información generados sean éticamente aceptables.
La cuestión es entender qué se entiende por “Información y datos éticamente aceptables”, adhiriendo este concepto al contexto de la inteligencia artificial y del procesamiento de datos, un tema abordado por investigadoras como Crawford (2022), quien logró avanzar en una conceptualización que se construye cada día y que establece que los datos éticamente aceptables, son aquellos que se obtienen, procesan y utilizan, de manera que se respeten los principios éticos y los valores morales en el tratamiento de la información (Crawford, 2022, pág. 76).
Tanto Crawford (2022) como Dignum (2019), han hecho grandes esfuerzos, no sólo en conceptualizar sobre los aspectos éticos que los equipos técnicos deben asumir como base para el desarrollo de la IA, sino que han profundizado en la necesidad que existan lineamientos contextualizados y aterrizados para que no sólo gesten desarrollos éticos, sino para que éstos sugieran acciones e interpretaciones éticas (Dignum, 2019).
En esta línea, tanto como Crawfor (2022) como Dignum (Idem), han abordado cuatro aspectos que deben considerarse al momento de garantizar datos e información éticamente responsable como un producto de la IA en cualquier rama del saber, destacando que pueden ser entendidos como posibles escenarios en donde se cometan faltas a la ética académica:
Entendiendo lo anterior, el garantizar información éticamente aceptable, conlleva a mitigar y controlar estos sesgos, es decir, utilizar datos equilibrados y representativos, aplicar técnicas de mitigación de sesgos y realizar una evaluación continua de los modelos de IA para identificar y corregir posibles sesgos discriminatorios.
En este tema especialmente es prudente ahondar, entre tanto las técnicas de mitigación y control de sesgos, pretenden reducir o eliminar los sesgos inherentes en los datos y los modelos de IA, razón por la
cual la inclusión de estándares protagonizados por estas implican un esfuerzo necesario que se debe enfocar en los siguientes movimientos estratégicos: A. Recopilación de datos equilibrados, es decir, en recopilar datos que sean representativos y equilibrados en términos de las diferentes características y grupos demográficos presentes en la población objetivo, lo que autores como Buolamwini y Gebru (2018), establecen como una acción que ayuda a evitar la falta de representatividad y los sesgos sistemáticos que pueden surgir cuando los datos están sesgados hacia ciertos grupos (Buolamwini, 2018).
Así mismo, otra técnica que es importante entender para garantizar datos e información éticamente responsable como producto de la IA en entornos académicos, es la de preprocesamiento de datos, consistente en aplicar transformaciones a los datos antes de entrenar el modelo de IA, lo que en palabras de Boulamwini (Idem), incita a incluir la eliminación o el ajuste de atributos sensibles que pueden estar correlacionados con sesgos; además se pueden combinar con otras técnicas como la de "submuestreo" o "sobremuestreo" para equilibrar las clases y reducir sesgos en los datos.
En esta línea, la regularización es otra técnica sugerida por Crawford (2022), entendida como una técnica un tanto compleja que se utiliza en el aprendizaje automático para controlar el sobreajuste del modelo, pero su aplicación permite reducir la influencia de ciertos atributos o características que pueden introducir sesgos en el modelo.
También es importante conocer la técnica del aumento de datos (Buolamwini, 2018), cuyo interés es el de generar datos adicionales mediante la modificación o la combinación de los datos existentes y su ventaja es que posibilita aumentar la diversidad y la representatividad de los datos, lo que puede ayudar a mitigar los sesgos inherentes.
Por otro lado, autores como Mullainathan (2017), han sugerido la incorporación de otras técnicas como la evaluación y métricas de sesgo, entendiendo la importancia de la medición y de la evaluación sistemática de los sesgos en los modelos de IA, donde los equipos técnicos puedan utilizar métricas específicas para medir la disparidad y el sesgo en las predicciones y en la distribución de los resultados. Esto ayuda a identificar y abordar los sesgos en el modelo y realizar ajustes necesarios (Mullainathan, 2017).
Finalmente, una técnica de gran impacto es el diseño de sistemas justos, dado que considera el diseño del sistema en su conjunto, lo que quiere decir que aborda aspectos más amplios de equidad y justicia, como el diseño de reglas de toma de decisiones, la inclusión de múltiples perspectivas y la transparencia en el funcionamiento del sistema (Dignum, 2019).
Ahora, prosiguiendo con los cuatro aspectos que deben considerarse al momento de garantizar datos e información éticamente responsable como un producto de la IA en cualquier rama del saber y que han sido propuestos por Crawfor (2022) como Dignum (Idem), se encentran los siguientes:
evaluaciones periódicas para garantizar que la IA se adhiera a los estándares éticos y sociales establecidos, lo que requiere la participación de expertos en ética y reguladores, así como la retroalimentación de los usuarios y las partes interesadas para abordar preocupaciones éticas emergentes y adaptar las políticas y prácticas en consecuencia.
Ahora, construir una definición de “Datos e información éticamente aceptable” emitida por la IA, especialmente en entornos como es el académico, resulta una tarea inacabada y siempre en constructo, en especial porque la condición de “Éticamente aceptable” sólo puede considerarse – desde el punto de vista ingenieril- sí se abordan adecuadamente consideraciones clave como la privacidad, la imparcialidad y la transparencia, además de la protección de datos, la mitigación del sesgo, la transparencia de los algoritmos y la evaluación ética continua, tal como han considerado los autores mencionados previamente, pero surge una reflexión adicional y aterrizada al contexto colombiano y específicamente en el campo académico: la necesidad de sentar las bases éticas iniciales que permitan a las comunidades educativas, actuar de forma razonable y acorde a los parámetros morales que requieren los asuntos vinculados a las diferentes áreas del saber.
Ahora, lo realmente importante es considerar las bases primarias que las comunidades educativas deben tener en cuenta al momento considerar la generación de contenidos académicos a partir de herramientas como la IA, y sin lugar a dudas, el principio y fin debe ser el conocimiento y respeto absoluto por la verdad, la justicia y en consecuencia, por el actuar ético (Nussbaum, 1986).
En este sentido, debe decirse que considerar la IA como fuente de datos e información éticamente aceptable, sólo es posible, sí y solo sí, quienes ambientan la herramienta, la diseñan, la piensan y la desarrollan, tienen unos fundamentos éticos fuertes, siempre acompañados, obviamente, de las bases específicas que da la ética académica, pero la discusión de este artículo va más allá de las responsabilidades de los actores, entre tanto abarca las consecuencia del uso de la IA en entornos académicos.
La característica fundamental de la IA es su capacidad para compilar, manejar y arrojar grandes cantidades de datos Wickman (2019), sin embargo, no puede generalizarse esta definición e imprimirse a todas las IA existentes, especialmente porque la naturaleza del material que emana de estas herramientas, depende de las características de su programación y entrenamiento, además del propósito de su uso. Se encuentra entonces contenido que vería entre texto, imágenes, audio, códigos, vídeos, datos y análisis, y diseño gráfico (Wickman, 2019).
Es vital entonces entender que la naturaleza del material o contenido que genera la IA, es impulsada por algoritmos y modelos de aprendizaje automático que son sometidos a entrenamiento y convertidos en datos de entrada, razón por la cual estos modelos tienen la competencia de aprender patrones basados en datos preexistentes y posteriormente gestar nuevos contenidos fundamentados en dichos patrones (Idem)
Ante esta definición, Marcus (2019) afirma que la IA tiene limitaciones significativas vinculadas con la confiabilidad y la ética, esencialmente porque en sí la IA no posee una base ética, entre tanto es una tecnología y como herramienta, depende de cómo ha sido programada y con qué propósito ha sido construida (Marcus, 2019).
Al respecto, la preocupación de autores como Wickman (2019), Hinton, Bengio y Rusell en (European Commission, 2019), radica en que los usuarios confundan la naturaleza de los contenidos que surgen o emanan de las IA y las usen como legítimas por la razón y la cognición necesaria para ser llamada “Información”.
Así las cosas, la naturaleza de los datos y su relación con la base ética que deberíatenerse en cuenta para su publicación en las plataformas de IA depende de varios factores:
De los estándares de programación ética que usen los equipos técnicos de diseño y programación, lo que incluye la forma en que se recopilan los datos, la calidad y veracidad de las fuentes de estos datos; de cómo se entrenan los modelos de IA y cómo se gestionan los patrones.
De los algoritmos y modelos de la IA, entendiendo que esta última puede ser programada para tomar decisiones éticas, es fundamental que el equipo de desarrollo considere algoritmos basados en principios éticos y valores sociales.
De la transparencia y responsabilidad adquirida por parte de los desarrolladores y las organizaciones dedicadas a la programación. Es necesario conocer quiénes son los equipos desarrolladores, su ubicación, las bases de sus estándares éticos y la intención de sus desarrollos.
De la regulación y normativa dispuesta para promover el uso ético de la IA, para proteger los derechos de las personas vinculadas en el proceso de transacción de datos y en la privacidad de los usuarios.
De la educación y conciencia sobre el uso ético de la IA, lo que involucra posiciones éticas de toda la cadena de la IA, incluyendo a los desarrolladores, programadores, usuarios directos, autores y lectores finales de los contenidos.
Respecto al punto cinco, Bostrom (2014) afirma que la responsabilidad de garantizar un uso ético de la IA recae exclusivamente en los seres humados que se involucran en cualquiera de las fases que ésta tiene, es decir, en el diseño, desarrollo y uso de la tecnología, lo que puede ser una razón para pensar que el usuario está en la obligación de conocer la naturaleza de los contenidos emanados de la IA, que en el 100% de los casos, es comunicada por las diferentes plataformas en la información inicial de contacto y autorización de la herramienta, tal como sugiere el Primer acuerdo mundial sobre la ética (Naciones Unidas, 2021).
En torno a lo previamente dicho, surge una hipótesis teórica que puede decirse comprobada desde los estándares enunciados por la ONU (2021) y de forma menos explícita por la Montreal Declaration for a responsable development of artificial intellingence (2018), donde surge la necesidad de guiar, desde el Derecho, las bases para actuar en garantía de la ética en todas las dimensiones de uso de la IA.
La hipótesis se concentra en que como usuarios de la IA, los actores que se desenvuelven en el ejercicio educativo de la generación de contenidos, tienen la responsabilidad ética de entender la verdadera naturaleza del material que sugiere la IA; de conocer la veracidad de sus fuentes: de entender que son datos y no información; de comprender que la IA utilizada no tiene una base ética que le permita mutar datos a información reflexiva, y por tanto, que el material compilado por la IA, no tiene en sí misma, derechos de autor ni propiedad intelectual, ya que los datos que emiten, no tienen la denominación de obras creativas originales creadas por seres humanos (Matzavela, 2021).
Considerando lo anterior, al ser una herramienta tecnológica diseñada y desarrollada por seres humanos, con el propósito de realizar tareas específicas, ésta no es una entidad consciente ni creativa, y la responsabilidad de su uso recae únicamente en sus usuarios.
De modo reflexivo, surge una correlación basada en que, sí un usuario, - llámese docente, estudiante o investigador- utiliza los datos que emite una IA y los referencia como propios, incurre en faltas a la ética educativa.
Según la UNESCO (2023), existen faltas frecuentes vinculadas al uso de la IA, incluyendo: 1. La atribución inadecuada de los contenidos, desconociendo su fuente original; 2. El plagio y la falta de originalidad; 3. La equidad y el sesgo, consistente en el uso de datos como si se tratara de información analizada; 4. El uso excesivo de la tecnología para minimizar el esfuerzo escritural, de pensamiento crítico y el fortalecimiento de habilidades investigativas y 5. El riesgo de privacidad, entre muchos otros relacionados con el fraude académico (UNESCO, 2023).
La pregunta que surge entonces es sí las IA de mayor uso en el ámbito académico ¿Facilitan o no la comisión de faltas vinculadas al uso de inteligencia no humana con propósitos académicos?
Responder esta pregunta requiere inicialmente conocer cuáles son las IA de mayor uso por las comunidades educativas, por lo que es viable citar a Gartner (2023), quien concluyó que existen cinco tipos de IA con alta demanda en el mundo. Inicia diciendo que los Chatbots educativos que pueden interactuar con los estudiantes de forma similar a un humano, se usan esencialmente para arrojar información, retroalimentación, o responder preguntas frecuentes, por lo que los más usados en el primer semestre de 2023, son Snatchbot, Cleverbot, y Mitsuku (Gartner, 2023)..
El segundo tipo de IA más usada son los sistemas de recomendación, especialmente demandados por docentes, ya que recomiendan cursos, materiales de aprendizaje, o actividades dirigidas para los estudiantes, siendo los de mayor uso Coursera, EdX, y Duolingo (Gartner, 2023)..
Un tercer tipo de IA es el de aprendizaje automático adaptativo, usado generalmente para diseñar evaluaciones, planes de aprendizaje, o materiales de aprendizaje adaptados a cada estudiante, y los más usados son ALEKS, Khan Academy, y Knewton (Gartner, 2023)..
El cuarto tipo de IA más utilizado es el de realidad aumentada y realidad virtual, utilizados para enseñar conceptos complejos, proporcionar simulaciones, o crear entornos de aprendizaje personalizados, destacándose Google Expeditions, Minecraft Education Edition, y Second Life (Gartner, 2023)..
Finalmente, se encuentra la IA de análisis de datos, enfocada en realizar investigaciones, evaluar el rendimiento de los estudiantes, o personalizar el aprendizaje, siendo los más usados Coursera Insights, Datacamp, y edX Analytics (Gartner, 2023)..
Por su parte, en el ámbito académico latinoamericano, afirma Gartner (2023) que el ranking está liderado por Chatgpt, entendido como una inteligencia artificial basada en el procesamiento del lenguaje natural; seguido de Bard, cuyas características son similares a la anterior (Gartner, 2023)..
En el campo que Gartner (2023) llama “Experto” en el que incluye a los investigadores universitarios, destaca que usan inteligencias tales como TensorFlow (desarrollado por Google), PyTorch (desarrollado por Facebook), Scikit-learn, Keras, MATLAB y su caja de herramientas de Deep Learning, Apache Spark, Jupyter Notebooks, H2O.ai y Microsoft Azure Machine Learning, sin embargo, sigue liderando ChatGpt el ranking (Gartner, 2023).
Ahora, en palabras de Stanford University (2023), el uso de las principales IA en el ámbito académico, difieren someramente en el caso de las universidades latinoamericanas, las americanas y las europeas, sin embargo, existen factores comunes, tales como el plagio y originalidad, la autoría y responsabilidad relacionados con la falta de transparencia; la vulneración de los derechos de autor; la falta de calidad y fiabilidad de los trabajos e investigaciones entregadas y el debilitamiento a la innovación (Stanford University, 2023).
Si bien cada día surgen nuevas IA al servicio de la academia, surgen también nuevas formas de incurrir en faltas a la ética, razón por la cual las medidas para combatir este hecho también tienen una fuente tecnológica, por lo que tras una búsqueda de las principales herramientas y tecnologías que propenden por la veeduría de contenidos académicos generados por la IA, se encontró que existen ocho tipologías de alta demanda: 1. El software de detección de plagio, tal como Turnitin, Grammarly y Copyscape. 2. Las herramientas de análisis de texto y autoría, incluyendo dentro de las más usadas a JStylo- Anonymouth y los Software de Análisis Estilométrico. 3 las plataformas de revisión por pares, donde se pueden mencionar Publons y OpenReview. 4. Las herramientas de análisis de datos y estadísticas, especialmente SPSS, R, Python. 5. Las herramientas de gestión de referencias, incluyendo Zotero y Mendeley. 6. La Inteligencia artificial y aprendizaje automático. 7. Las herramientas de IA para detección de fraude. 8. El Blockchain y tecnologías de registro distribuido.
Finalmente, es prudente concluir respecto a la pregunta sí las IA de mayor uso en el campo académico facilitan o no la comisión de faltas vinculadas al uso de inteligencia no humana con propósitos académicos, el estudio condujo a pensar que la usabilidad de estas herramientas, está permitiendo que un mayor número de usuarios generen consultas de forma más fácil y rápida, dos factores esenciales en la carrera educativa, de ahí que la respuesta sería que las IA si pueden estar aplanando un camino para la comisión de faltas a la ética, pero recordando que el fundamento de esta comisión, está en la misma naturaleza de las IA.
Las herramientas de Inteligencia artificial traen consigo múltiples benefícios em muchos campos de la vida individual y social humana. La educación no es ajena a estas ventajas, pues la IA permite la automatización de tareas repetitivas y puede ayudar en lo que respecta a una educación más personalizada, a través de la utilización de herramientas de IA pedagógicas y didácticas que faciliten la aprehensión de conocimientos, destrezas, competências, logros, experiencias significativas, entre otras.
Particularmente en el campo de la investigación, la IA coadyuva tareas tales como la recolección, sistematización y analísis de los datos y de la información; además de que también facilita la metodologia y estructuración de la investigación, la publicación en lo que respecta a la escritura, citación y referenciación, entre otras. Sinembargo, a pesar de todos estos benefícios, la IA también trae consigo riesgos y amenazas para la educación en general y para la investigación em particular. Tales riesgos tienen que ver con el plagio, la vulneración de los derechos de autor, la vaguedad respecto a la autoria y originalidade de la investigación, entre otras.
Dado que son más las ventajas y bondades de la aplicación de las herramientas de Inteligencia Artificial, que los riesgos y amenazas; se trata simplemente de identificar los peligros, regularlos y limitarlos; de tal manera el uso de la IA en la investigación cumpla su rol de medio al servicio de los fines éticos de la investigación y no se vulneren los principios éticos de la transparencia, la intimidad y privacidad personal, la responsabilidad, el acceso equitativo, la creatividad genuina, la creatividad y la empatía.
Barocas, S. &. (2018). Data protection and privacy. Annual Review of Economics(10), 85-114.
Buckland, M. (2005). Programming Game AI by Example. Wordware. Retrieved Octubre 3, 2023, from https://www.google.com.co/books/edition/Programming_Game_AI_by_Example/gDLpyWtFacYC?hl
=es&gbpv=1&dq=Buckland+AI&printsec=frontcover
Bunge, M. (2021). La ciencia, su método y su Filosofía. Sudamericana.
Buolamwini, J. G. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 1-15. Retrieved Mayo 25, 2023, from https://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf
Campbell, T. (2002). La justicia. Los principales debates contemporáneos . Barcelona: Gedisa. Carrion, J. (2017). Diferencia entre dato, información y conocimiento.
Castaño, A. M. (2005). Lógica formal y matemática. Medellín: Universidad Pontificia Bolivariana. Chevallier, J. (2011). El Estado posmoderno. Bogotá: Universidad externado de Colombia.
Cohen, G. (2001). Si eres igualitarista, ¿cómo es que eres tan rico? Barcelona: Paídos.
Crawford, K. (2022). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence.
Yale University Press.
Dignum, V. (2019). Responsible Artificial Intelligence. Part of Artificial Intelligence: Foundations, Theory, and Algorithms (AIFTA). AIFTA.
European Commission. (2019). Ethics guidelines for trustworthy AI. Retrieved Octubre 13, 2023, from https://www.google.com.co/books/edition/Building_trust_in_human_centric_AI/2HvHDwAAQBAJ?h l=es&gbpv=1&dq=como+Dignum+(2019)+AI&printsec=frontcover
Forato, T. C., Martins, R. A., & Pìetrocola, M. (2015). A little learning is a dangerous thing?: the nature of science and short historical accounts. 13th IHPST Conference - The role of HPS in Global Society, 1, pp. 1-9. Rio de Janeiro.
Gartner. (2023). Gartner Top 10 Strategic Technology Trends for 2023. Retrieved Octubre 2, 2023, from https://www.gartner.com/en/articles/gartner-top-10-strategic-technology-trends-for-2023
Jiménez, E. A. (2023). Possibility of building a fuzzy epistemology from fuzzy logic presuppositions.
IEEE, 1-5.
Lee, K.-F. (2019). Inteligencia artificial. Globo livros.
Locke, J. (1990). Segundo tratado sobre el gobierno civil. Madrid: Alianza.
MacIntyre, A. (1994). Justicia y Racionalidad. Barcelona: Ediciones internacioles universitarias.
Marciales Parra, N. M. (2023). Algunas variables asociadas al plagio académico: un caso en una universidad colombiana. Revista Interamericana de Investigación. Retrieved Agosto 2, 2023, from https://www.researchgate.net/publication/372490540_Algunas_variables_asociadas_al_plagio_academ ico_un_caso_en_una_universidad_colombiana
Marcus, G. (2019). Rebooting AI: building artificial intelligence we can trust.
Matzavela, V. A. (2021). Decision tree learning through a Predictive Model for Student Academic Performance in Intelligent M-Learning environments. Computers and education. Retrieved Octubre 1, 2023, from https://www.sciencedirect.com/science/article/pii/S2666920X21000291?via%3Dihub
McAleenan, P. (2020). Moral responsibility and action in the use of artificial intelligence in construction.
Management, Procurement and Law.
McCabe, D. T. (1997). Individual and contextual influences on academic dishonesty: A multicampus investigation. Research in Higher Education, 38, 379-396.
Moratalla, A. D. (2008). Responsabilidad y diálogo en Lévinas: reflexiones para una ética del cuidado y la solicitud. In A. A. Martos, Emmanuel Lévinas: la filosofía como ética (pp. 173-184). València, España: Universitat de València; Servei de Publicacions.
Mullainathan, S. &. (2017). Machine Learning: An Applied Econometric Approach. Journal of economic perspectives, 31(2), 87-106.
Naciones Unidas. (2021). Grupo de trabajo sobre gobernanza de la IA. Marco ético sobre IA.
Nagel, T. (1996). Igualdad y parcialidad. Barcelona: Paidos.
Nozick, R. (2017). Anarquía, Estado y utopía. México: Fondo de cultura económica.
Nussbaum, M. (1986). The Fragility of Goodness. Luck and Ethics in Greek Tragedy and Philosophy.
Cambridge: Cambridge University Press.
Rawls, J. (1995). Teoría de la justicia. México: Fondo de cultura económica.
Rawls, J. (1995a). Liberalismo político. México: Fondo de Cultura Económica. Rawls, J. (1995b). Teoría de la justicia. México: Fondo de cultura económica. Rawls, J. (1996). El derecho de los pueblos. Bogotá: Nuevo pensamiento jurídico. Rawls, J. (2001). Derecho de gentes. Barcelona: Paidós.
Rawls, J. (2002). La justicia como equidad. una reformulación. Barcelona: Paídos. Sandel, M. (2000). El liberalismo y los límites de la justicia. Barcelona: Gedisa.
Sandel, M. (2013). Justicia ¿hacemos lo que debemos? Barcelona: Debolsillo.
Serrano, B. C. (2014, 11). El Lévinas político según Abensour. Revista de filosofía, 70, pp. 45-60. doi:http://dx.doi.org/10.4067/S0718-43602014000100003
Sevcenko, N. (2005). A corrida para o século XXI: no loop da montanha-russa. São Paulo, SP, Brasil: Companhia das Letras.
Stanford University. (2023). Artificial Intelligence Index Report. Stanford: Stanford University.
UNESCO. (2023). Universidades divididas sobre el uso de la UA para detectar el plagio con IA. The Guardian Australia.
Usquiano Yepes, P. A. (2023). Integración de Inteligencia Artificial y Principios del Derecho Procesal en la Toma de Decisiones Jurídicas: Estándares de Responsabilidad Ética de los equipos técnicos interdisciplinares de programación. Medellín: Universidad de Medellín.
Van Parijs, P. (1993). ¿Qué es una sociedad justa? Barcelona: Ariel.
Verona, J. (2022). La ética de la inteligencia artificial. Bioquímica y Patología Clínica, 86, 21.
Vigotsky, L. S. (2001). A Construção do Pensamento e da Linguagem (1ª ed.). (P. Bezerra, Trans.) São Paulo, SP, Brasil: Martins Fontes.
Walzer, M. (1997). Las esferas de la justicia. México: Fondo de cultura económica.
Wickman, H. (2019). Grafhics ccokbook: practical recipes for visualizin data. O´Railly media.
Yuste, R. (2019). Las nuevas neurotecnologías y su impacto en la ciencia, medicina y sociedad.
Zaragoza: Universidad de Zaragoza.