ÁLVARO RAMÍREZ – EL CANDIL – AÑO IV – N° 202.-
¿Podríamos estar a las puertas de haber creado simultáneamente, tanto una herramienta valiosa para utilización práctica y masiva de información procesada, como una máquina formal de desinformación?
En estas semanas se ha despertado un gran interés en todo el mundo por la INTELIGENCIA ARTIFICIAL. Aunque el término es bastante conocido y utilizado, la diferencia en estas últimas semanas para despertar la inquietud de la sociedad en general está asociada a su utilización, de manera más cercana y comprensible para la mayoría de la población. Se trata de la utilización de lenguaje conversacional, interactivo, CHATS, para comunicarse con los seres humanos en tiempo real, partiendo del procesamiento de información extraída de inmensas bases de datos disponibles en las redes. El procesamiento de esa información genera conclusiones o resultados que a su vez realimentan el sistema. Todo ello en tiempo real mientras se desarrolla la interacción. Ejemplos, casi impensables, de su utilización han salido a la luz en un par de meses. Preguntas como: ¿Qué opina la gente de mi? Solicitudes como: Escríbeme un poema. Hazme un diagnóstico a partir de ciertos síntomas. Dibújame un paisaje con la foto de alguien. Presenta el examen para obtener la certificación de conocimientos.
Es innegable la importancia que la Inteligencia Artificial tiene para nuestra sociedad. De hecho, creo que ya hace tiempo está salvando vidas. Una Inteligencia Artificial que rige el funcionamiento autónomo de equipos, con precisión mayor que la de las manos del hombre. Que permite el funcionamiento de equipos a distancia evitando la exposición de seres humanos. En armamento, en equipos médicos, en herramientas simples de cada profesión, en fin, en cualquier ambiente donde es posible tomar acciones dependiendo de valores que adopten diferentes variables.
Hace cuanto tiempo es posible detectar y activar controles según la presión atmosférica, la velocidad y dirección del viento, el peso, etc., ¿combinados? ¿Es decir, volar por instrumentos y aterrizar un avión? ¿O que una nave se pose en Marte luego de una larga travesía y se dedique a tomar muestras y hasta analizarlas y enviar resultados a casa?
Con la Inteligencia Artificial hoy en día, aplicada al manejo de la información y conectada a chats, lo que antes se pensaba que debía ser actividad de erudito y producto de estudio e investigación, pareciera que no es más que saber preguntarles a algunas herramientas, para que te arrojen la información que deseas saber en un momento dado y además te permita hacer especulaciones y completar opiniones basado en información no solo científica, sino también de resultados de análisis u opiniones de terceros.
Con la asociación de CHATS e INTELIGENCIA ARTIFICIAL, en estos días se está haciendo evidente y finalmente discutiendo, el impacto de esta, especialmente al ver la competencia que se ha desatado entre proveedores del servicio y sus alcances, y la publicidad que ha recibido. Al parecer alguno de los competidores grandes ha visto la necesidad de salir al público debido al adelanto de otro y de allí a la proliferación de empresas lanzando estos chats. Aunque parece a primera vista una afirmación conocida por todos, se ha puesto en evidencia que la información para análisis está sujeta a la alimentación de data. La Inteligencia Artificial, como la humana, también puede hacer análisis de la data que posee y como la inteligencia humana, puede llegar a conclusiones erradas si se le suministra información errada. ¿Le podremos alimentar a la Inteligencia Artificial la “¿viveza” para que además desarrolle la desconfianza y ya vea la información y los análisis resultantes simplemente como producto de una campaña de venta de una idea, un personaje o ilusiones y no la tenga en cuenta a la hora de una opinión o recomendación? Leía esta semana que ya está demostrado y reconocido por las empresas que están introduciendo estos chats, que esta inteligencia en forma de chats puede y está produciendo información errada y además encontrando vías para ocultar el desconocimiento de algo. Imaginémonos la alimentación de data partiendo de los sistemas publicitarios hoy en uso. Las etiquetas de los productos, las campañas publicitarias con supuestos profesionales que recomiendan engañosamente productos, aunque conocen su nocividad. ¿Qué me recomiendas comer hoy si estoy deprimido? Hoy los seres humanos son inducidos a reaccionar, comprando o consumiendo algo producto de su análisis, partiendo en muchos casos de información errada. Nos imaginamos lo que puede significar, como lo leía esta semana, que esa Inteligencia Artificial la utilicemos para preparar textos escolares, prescripciones médicas, recetas, o consejos, partiendo de data tendenciosa que se toma de campañas, ¿y por tratarse de un sistema confiable “en internet” la mayoría acepte sus conclusiones y las adopte sin más filtro? ¿Estaríamos utilizando la Inteligencia Artificial solo como una procesadora más sofisticada que analiza un mayor volumen de datos, pero que también puede llegar como los seres humanos a conclusiones erradas? ¿Es posible que le demos mayor credibilidad, desconfiemos menos y por ende soportemos más decisiones transcendentales o de seguridad, basados en sus recomendaciones a partir de “Data Científica” en internet? Una cosa es la exactitud en el cálculo y otra la exactitud del resultado partiendo de alimentación tendenciosa. Eso sucede con los humanos. ¿Qué es una campaña política para ocupar cargos públicos de importancia, sino una venta con información muchas veces tendenciosa, verdades a medias, o evidentes promesas utópicas? ¿Como seria el voto de la inteligencia artificial? como es hoy el de los humanos? ¿Errado o con “motivaciones” en la mayoría de las veces? ¿Por qué habría de ser diferente si parte de información suministrada masivamente para “generar” una tendencia o motivación?
¿La Inteligencia Artificial no respondería o llegaría a las mismas conclusiones que la inteligencia humana? ¿No sería igual de vulnerable a la manipulación? ¿Deberíamos entonces empezar a confiar ciegamente en ella si es igual de vulnerable a la humana? ¿No se obtendrían los mismos resultados? ¿Habremos ganado solamente en la velocidad de procesamiento?
Los amantes del pragmatismo podrían pensar, que la Inteligencia Artificial como base para Chats no son una amenaza para el ser humano, porque nunca tendrá sentimientos.
En la medida que se conecte a fuentes, es posible con las redes crear patrones según lo encontrado y desarrollar conclusiones erradas. El sistema puede entonces convertirse en una máquina de desinformación. Voluntaria o involuntariamente. Pensemos, en una palabra, que tiene un significado. La máquina no entiende o conoce el significado, sin embargo, desarrolla el patrón de cuándo y cómo se utiliza y lo adopta. Pensemos en un ejemplo concreto e imaginemos si le introducimos en forma masiva a un sistema de estos, las palabras “Rico” o “Pobre”, asociadas a algo, a algún comportamiento. La máquina la adoptará, la utilizará a partir de allí en ese mismo contexto. ¿No es esto lo que hace la inteligencia humana? ¿No es eso lo que estamos empezando a entender que está haciendo la inteligencia humana con la creación de narrativas que puede llegar a cambiar hasta hechos históricos? Se ha intentado negar algún genocidio, aun cuando las cifras de muertos existen. ¿Adoctrinamiento no podría ser una amenaza si tenemos el poder de alimentar masivamente palabras asociadas a situaciones que deseamos?
La posibilidad de utilizar los Chats con Inteligencia Artificial no sería potenciar la posibilidad de crear narrativas en cualquier campo, desde la salud, las costumbres y ritos, ¿valores y sentimientos? ¿Se podría desarrollar textos escolares con esta herramienta en forma segura? ¿Y campañas de salud? ¿Le solicitamos a uno de estos chats que nos analice y sugiera si debo vacunarme o no?
Que impediría cambiar el significado de términos como “HUMILDAD”, “SOLIDARIDAD”, “ÉXITO”, “PATRIOTISMO”, “SOCIAL”, “ETICA”, “DERECHO”, “DISCIPLINA”, “ESFUERZO”, si contamos con que podemos “sembrar” nuevos conceptos asociados a estos términos en cualquier celular, en cualquier momento, ¿a cualquier persona en cualquier parte del mundo?
¿Tendremos la capacidad de manejar las situaciones presentadas por recomendaciones emitidas por una máquina con base a estadísticas de data suministrada aparentemente por un gran número de personas pero que pueden a su vez ser máquinas automáticas de generar data? Conclusiones u opiniones que a su vez son retroalimentadas y desdibujan la data firme original. ¿Todos conocemos la famosa expresión de hace muchos años que dice que una mentira repetida miles de veces se va convirtiendo en verdad? En otras palabras, la mayoría, por ser mayoría tiene la verdad, ¿aunque los datos científicos digan lo contrario?
Por las informaciones circulando parece que ya se está produciendo algún nivel de preocupación en asociaciones profesionales.
Como en otros casos de innovaciones tecnológicas, son grandes las ventajas que puede ofrecer la herramienta de chats conectados con Inteligencia Artificial, por su capacidad de análisis masivo de datos a alta velocidad y la obtención de conclusiones estadísticas. Sin embargo, no tengo duda que encierra riesgos asociados a su mala utilización.
¿Podríamos estar a las puertas de haber creado simultáneamente, tanto una herramienta valiosa para utilización práctica y masiva de información procesada, como una máquina formal de desinformación? Dependiendo de la utilización que le demos, podremos desarrollar confianza en ella y hacerla útil o no. Algo parecido a lo que construimos con las instituciones, las descalificamos por el uso abusivo de ellas o las hacemos útiles ayudando a depurarlas.