Recordarás que en la primera parte de este blog te presentamos parte de un resumen sobre la conferencia titulada “Inteligencia Artificial, ¿herramienta o amenaza?”, la cual fue impartida por el doctor en filosofía Héctor Velázquez. En esta segunda parte continuaremos detallando aspectos muy interesantes de la misma.

Una de las preguntas que podemos plantear al hablar de Inteligencia Artificial es la siguiente: ¿es una herramienta o es una amenaza? El experto comentó en su conferencia que hay preocupaciones a corto y largo plazo, las cuales tienen que ver “con el carácter autónomo de estos sistemas, con los sesgos de uso y manejo de la información o los algoritmos que manejan la información que se involucra con estos sistemas, y que los sesgos que padecemos de orden cultural, racial, sexista, etcétera, se transmitan a estos sistemas. Desde luego hay una preocupación brutal acerca de la privacidad, de qué tan transparentes son los criterios de operación de estos sistemas por parte de los programadores, lo que se llama la caja negra y la toma de decisiones que está involucrada, es decir, parece una preocupación de que no todos los ambientes, no todos los entornos deberán estar sujetos a decisiones de Inteligencia Artificial”. 

Agregó que a mediano plazo está la preocupación de que la Inteligencia Artificial llegue a tener una inteligencia típicamente general donde no solamente pueda gestionar información, sino comprender la información que está generando. “Aquí habrá que hablar del estatus moral y legal. Hay que repensar la relación hombre/máquina en un ambiente de automatización masiva” expuso el ponente. A largo plazo obviamente preocupa que “ya no haya posibilidad de distinguir entre un ser humano y un artefacto artificial sin lo que se llama la singularidad tecnológica. Ya no hay manera de distinguir uno y otro (…). Donde no hay seres humanos involucrados y todo esté automatizado”, explicó.

Un aspecto que también resaltó el doctor Velázquez es que, con los avances tecnológicos, aparece primero “la utilidad, que la necesidad”. Por ejemplo, cuando surgieron los drones, la gente los visualizaba como un instrumento que en algún momento pudiera entregarte la mensajería, sin embargo, hoy se pueden usar incluso para matar gente.  Ante esto, el experto dijo: “Eso es lo que hace que sea muy complicado de regular éticamente, porque esta ética que se aplica, este tipo de tecnologías, más bien alcanza a ser descriptiva, no normativa. Va de los casos particulares, a ciertas a reglas generales, lo que se llama un enfoque ascendente o un enfoque descendente. Es decir, vamos viendo cuáles son los beneficios, las ventajas, los criterios pragmáticos. Luego se dan las normas y posteriormente las regulaciones”. Agregó que surgen entonces híbridos, reglas que van apareciendo para ciertos casos, se van transformando los criterios generales y luego se van modificando con los casos. 

¿Cuál es un primer tipo de solución ante esas preocupaciones de corto plazo, sobre la ciberseguridad y uso de los datos? “La idea es reducir los riesgos y minimizar los efectos no deseados. Ese es el criterio”, comentó el ponente. Y agregó: “Para afrontar este tipo de problemas con respecto a la seguridad, se requiere la transparencia, (se debe trabajar) en los criterios de articulación, de programación, de los algoritmos, que sean claros”, explicó el doctor Velázquez. Es necesario que haya transparencia en los criterios de su diseño y claridad para saber cuándo una situación está siendo resuelta con Inteligencia Artificial y cuándo no.

Es necesario contar con directrices éticas para afrontar la Inteligencia Artificial. La aplicación de criterios éticos es fundamental para decidir en cuestiones de corto plazo. 

¿De qué está preocupada la gente que de verdad tiene acceso a los desarrollos científicos tecnológicos de punta? El doctor Velázquez mencionó que al respecto hay una variedad de temas, por ejemplo, la diseminación de desinformación es algo que preocupa gravemente a la gente de ciencia. “El uso de armas autónomas y toda una serie de cuestiones que tienen que ver con la gestión de la sociedad, con el impacto en el desempleo, con el consumo de energías, es decir, los riesgos existenciales de la humanidad”. 

Y surgen entonces preguntas como ¿qué tan inteligente es la Inteligencia Artificial?, ¿qué tan artificial? El Dr. Velazquez aclaró que “debe haber una ética para algoritmos que nos garantice su funcionamiento”. Pero hay cualquier cantidad de criterios éticos, comenta el experto. ¿Con cuál vamos a operar? ¿Las máquinas son agentes morales o no? El doctor Velázquez indicó que podríamos diferenciar estas preguntas en tres aspectos:

  1. Preguntas acerca de qué es realmente Inteligencia Artificial, es decir, cuál es su entidad. 
  2. Qué impacto podemos esperar.
  3. Cómo saber responder a este impacto. 

Un aspecto que subrayó el experto es que la sociedad debe estar consciente de que a los que se debe cuestionar es a quienes desarrollan e implementan estas tecnologías, es decir, quienes permiten que este desarrollo se realice. Debemos conocer las consecuencias globales que esto trae. “Hay que repensar los criterios en los cuales esta Inteligencia Artificial se mueve, que son criterios de contextos de poder, criterios donde los principios éticos no solamente deben minimizar riesgos, sino también potenciar capacidades humanas, es decir, no es un tipo de implementación que debamos nosotros rendirnos porque viene como viene y el que como decían los griegos del destino,  ́al que acepta lo lleva, al que no quiere lo arrastra´. Hay que decir hacia dónde va el futuro. El futuro vamos a construirlo”. Agregó que por lo mismo habrá una serie de riesgos, de reglas a seguir. Debe haber exigencias y para ello requerimos una nueva actitud, una mente, una sensibilidad. No es suficiente nuestra propia especialidad, sino que es necesario sumar varios aspectos. Tener una mente interdisciplinar transversal, en palabras del experto: “Una mente conectiva, que sea capaz de entenderse con las preocupaciones del otro, que la mentalidad de reflexión sea capaz de entenderse con la mentalidad de producción, con la mentalidad de administración, con la mentalidad del financiero, con la del ingeniero, con la del desarrollador nuclear”. Expone que necesitamos un nuevo tipo de preparación humana con intereses personales conectivos, globales. 

Para finalizar, indicó la importancia del cuidado del otro. “Sabemos que existimos solo en la medida que nos relacionamos”. Y agregó la importancia de que prevalezca como principio fundamental el ser humano: “El principio de humanidad, un cuidado de la vida, una preocupación por el conjunto de la familia humana o hablar de un humanismo tecnológico que se requiere en este momento para que la Inteligencia Artificial tenga un control delegado”. En este mundo cambiante, no perdamos de vista y hagamos lo propio para que la Inteligencia Artificial sea una herramienta útil. Hagamos lo que se requiera hacer para que no se convierta en una amenaza para el ser humano, sea por ignorancia o por incapacidad de gestionarla.  

ConParticipación

Fuente:
[1] Tomado de la conferencia “Inteligencia Artificial, ¿herramienta o amenaza?”, dictada por el doctor en filosofía Héctor Velázquez, 26 de enero de 2023.