X
¿DESEAS RECIBIR ESTA Y OTRA INFORMACIÓN VÍA CORREO ELECTRÓNICO?

background img
Undo




Economía, crimen organizado y cáncer: la investigación lógica de Alejandro Guerra

Redacción / 2018-07-09

Por Eduardo Vázquez Reyes

Xalapa, Veracruz. (Agencia Informativa Conacyt)

Para saber en qué consisten los efectos económicos —positivos o negativos— de la actividad del crimen organizado en el estado de Veracruz, estos pueden ser modelados por la lógica, de acuerdo con Alejandro Guerra Hernández, académico del Centro de Investigación en Inteligencia Artificial (CIIA) de la Universidad Veracruzana (UV).

Una de las lógicas desarrolladas en la inteligencia artificial es aquella que se basa en el estudio de los agentes racionales e intencionales, es decir, aquella que tiene deseos, creencias e intenciones y que ha sido aplicada al contexto del crimen organizado en Italia, donde se llegó a la conclusión —según Guerra Hernández— de que esta actividad no es necesariamente mala para la economía del estado, "pues si la actividad criminal es muy grande, el efecto es negativo; pero si no lo es, podría ser benéfico. Por un lado, inhibe la inversión, pero por otro inyecta dinero".

Además de los efectos económicos, el académico busca computacionalmente con esta lógica mejorar la precisión en la detección del cáncer cervicouterino, una de las principales causas de muerte en el estado. Estas dos líneas son parte de la investigación actual del especialista en inteligencia artificial y espera tener resultados favorables a corto plazo. 

Guerra Hernández es doctor en informática por la Universidad de París y miembro nivel I del Sistema Nacional de Investigadores (SNI). Su línea de investigación se basa en el estudio de agentes racionales intencionales. Hoy en día, trabaja en temas de investigación con los que busca un impacto y pertinencia social desde la elaboración de lenguajes lógicos para representar el razonamiento de autómatas y la aplicación de modelos artificiales en el campo económico y en el sector salud.

A propósito de estas líneas de estudio, Guerra Hernández conversó con la  Agencia Informativa Conacyt sobre sus últimos resultados en sus investigaciones. Además, comentó cómo inició su interés en el estudio lógico de la inteligencia artificial, en qué nivel se encuentra el trabajo del CIIA y las expectativas que tiene para esta ciencia.  

Agencia Informativa Conacyt (AIC): ¿Qué lo llevó a interesarse por el tema de lógica e inteligencia artificial?

Alejandro Guerra Hernández (AGH): Los sistemas multiagentes fue mi tema de estudio central. La idea es cómo tú puedes implementar entidades artificiales que pueden actuar con propósito de manera persistente para conseguir sus metas y cómo esas pueden actuar con otras entidades parecidas. Claro, en este problema de inteligencia artificial la lógica se ha usado siempre en tres niveles diferentes. Desde el inicio la inteligencia artificial está presente. Primero, muchas de nuestras referencias vienen de áreas ajenas a la inteligencia artificial. Somos los "chicos nuevos" estudiando el problema de la inteligencia. En realidad, hay mucho trabajo en filosofía, en ciencias.

Normalmente, tú tomas un modelo de afuera como modelo de referencia y tratas de reproducir lo que este dice. ¿Cómo sabes que tu construcción es cercana al modelo en que te estás basando? Necesitas lenguajes para modelarlos, para verificarlos y la lógica ahí es central. De esta manera la puedes ver como un lenguaje externo que te sirve para razonar, para saber si la inteligencia artificial que estás haciendo la estás haciendo bien o no. Y en otro sentido, la lógica se ha utilizado en inteligencia artificial de una manera análoga a las bases de datos. Entonces, lo que tienes es una base de datos llamada base de conocimiento y está implementada como un conjunto de fórmulas de alguna lógica y lo que te permite hacer es consultar la base de datos.

En lugar de hacer una consulta de base de datos normal, lo que haces es preguntarle a la base de conocimientos si tu pregunta es consecuencia lógica de lo que se sabe y, en ese sentido, también es muy usada. Por fortuna, en el transcurso de automatizar precisamente el proceso de razonamiento y de tener métodos algorítmicos para computar secuencias lógicas, produjimos como comunidad algo maravilloso: la lógica vista como un lenguaje de programación, en donde además de computar la verdad o falsedad de las cosas de acuerdo con lo que se sabe, resulta que también puedes computar valor de variables. 

En ese sentido, se convierte el aparato lógico en una máquina de cómputo universal, equivalente a la máquina de Turing y por tanto puedes programar en ella. Claro, en el caso del estudio de los agentes era ineludible utilizar los tres niveles de la lógica que he mencionado y, además de adecuados, eran muy interesantes, fascinantes.

AIC: ¿En qué estado se encuentra la investigación lógica en el Centro de Investigación en Inteligencia Artificial de la Universidad Veracruzana?

AGH: Vemos el uso de la lógica desde su aplicación computacional. En los casos del razonamiento médico, legal, entre otros, lo que se necesita es adecuar los lenguajes lógicos para que sean lo suficientemente expresivos para poder representar los problemas típicos de estas áreas. Pero tienes esa contraparte donde quieres un lenguaje que sea muy expresivo para solucionar los problemas que te interesan, que tengan métodos de prueba que no sean muy costosos computacionalmente. No puedes dejar que tus agentes artificiales razonen infinitamente, tiene que ser una respuesta acotada en un tiempo razonable.

Ahí el trabajo sigue. Hay mucho trabajo para diseñar lenguajes nuevos que se adecuan al tipo de problemas que tienes, semánticas nuevas que hacen que las pruebas sean realizadas en tiempo razonable, que puedas contender con problemas que son muy difíciles de contender; todo lo que son las semánticas estables, todo eso se está trabajando mucho actualmente. Por ejemplo, hay mucho trabajo acerca de la forma de manejar la negación, que a veces da mucho trabajo al computar, el manejo de restricciones, cómo puedes tú usar las restricciones para computar el tipo de respuesta.

Hay trabajo también sobre actualización de creencias, que tiene que ver con la no monotonicidad: ¿cómo actualizo mi representación del mundo?, ¿puedo dejar de creer cosas que creía? Hay adecuación al problema de planeación. Es decir, cómo puedo llegar, conociendo de lo que soy capaz, a las metas que pretendo alcanzar.

En mi caso en particular he trabajado mucho en lógicas para describir agentes racionales y estos aparatos lógicos son muy interesantes, porque son lógicas muy expresivas para poder hablar de lo que la gente cree: sus metas, sus planes y cómo estos estados (creencias e intenciones) cambian con el tiempo. Ahí me sirvo de la teoría para ver las características que permiten modelar estos agentes. Pero también tenemos un problema muy en boga: si estas lógicas son muy expresivas, entonces no son tan computables como quisiéramos. Es decir, yo no podría meter esas lógicas en la cabeza de un agente artificial para que este razonara.  

Entonces eran teorías muy bonitas, pero que quedaban muy lejos de un lenguaje de programación de agentes. Lo que hemos hecho acá es un camino de ida y vuelta, hemos utilizado otro tipo de formalizaciones, lenguajes de programación de agentes y luego el asunto es cómo diseño una lógica para el razonamiento de esos agentes en particular. Sí te puedo decir que mis agentes programados en este lenguaje no se comprometen infinitamente, siempre eventualmente abandonan sus intenciones. Esa es la idea. 

AIC: Y a partir de estos aparatos lógicos, que son la base tanto para la modelación como para el análisis, ¿cómo se debe definir “agente intencional” y “agente racional”?

AGH: Con respecto a la intencionalidad habría que aclarar que hay una intencionalidad en minúscula, como cuando decimos “la asesinó intencionalmente”. Pero a esa no nos referimos. La intencionalidad con mayúscula es simplemente la característica de ciertos estados mentales de los humanos. En castellano, cuando decimos cosas como: “Creo que no tendré la reunión mañana y deseo ir al cine e intentaré ver La forma del agua”, estas frases que tienen creer, desear e intentar son muy bonitas, porque son representaciones de representaciones.

En realidad, los verbos creer, desear e intentar expresan la parte proposicional en tanto dan un mensaje: querer ir al cine, desear ver La forma del agua. La idea sería poder implementar agentes artificiales en estos términos, porque de alguna forma este lenguaje nos es muy natural y los sistemas son fáciles de entender para todo mundo, tanto para mí como para los usuarios.

El segundo componente es definir el concepto de racionalidad. Ahí lo tomamos prestado, en mi caso, de la filosofía. El modus operandis de la inteligencia artificial es tomar prestado de otra parte. En mi caso, los tipos de agentes racionales los tomo de la filosofía, que es el modelo de Bratman de razonamiento práctico. La propuesta es las intenciones son planes parciales jerárquicos que se van formando con el tiempo; tus intenciones son como pilas de planes que vas formando y que están en relación con las creencias. Define las características que deben tener las creencias, los deseos y sus interrelaciones.

Cuando digo: “Tengo la intención de tener una entrevista contigo”, eso implica que tenemos un plan: acordamos una hora, una metodología. El hecho de tener la entrevista se extiende en el tiempo a manera de plan, donde no todos los detalles están decididos, sino que se van decidiendo poco a poco y sobre todo hay un proceso de reconsideración. En Bratman, el agente forma creencias, deseos en sus intenciones, pero también puede reconsiderarlas. Es decir, puede decidir hacerlas de otra manera, si se complica el plan, o también puede decidir abandonarlas. Eso es lo que implementamos en nuestros agentes.

El tercer aspecto sería los actos de habla. Como los agentes tienen estados análogos a las creencias, deseos e intenciones, tienen que comunicar en esos términos. Nuestros agentes cuando son varios y tienen que compartir recursos, tienen metas que son compatibles o incompatibles y  capacidades que pueden complementarse con las de los otros; se tienen que organizar y platican y lo hacen mediante actos de habla. Se sugieren cosas, se mandan órdenes, se informan cómo puede hacerse una tarea y da lugar esto a lenguajes de programación muy ricos.

AIC: ¿Me podría hablar de algunas aplicaciones sociales que estas teorías y sus investigaciones han tenido?

AGH: Estoy por empezar un proyecto que consiste en saber cómo afecta la actividad del crimen organizado la economía. Habíamos trabajado un poquito el problema en el caso de Italia. Y claro, como es muy relevante para nosotros, estamos intentando trasladarlo al contexto veracruzano. Básicamente lo que tienes es que son agentes que están en un mercado económico, es decir, trabajadores y empresas (unos venden su trabajo, otros reciben bienes y servicios). La idea es reproducir los macronúmeros de la economía en Veracruz. Cuando tú ajustas eso, ves cómo operaría en condiciones normales. 

Resulta que la actividad criminal en sus diferentes facetas forma un mercado paralelo. Tenemos información de cómo se puede ingresar en el mercado normal. Y también hay información parcial, si quieres de las agencias mexicanas, con respecto a la actividad del crimen. Vamos a empezar a jugar con eso: modelar el efecto del crimen ahí y eso será relevante. Pero realmente la pregunta de fondo es algo fundamental como: ¿el crimen es malo para la economía? No necesariamente. Eso es lo que los italianos aprendieron. Efectivamente, inhibe la inversión, pero por otro lado inyecta dinero producto de su actividad criminal.

En realidad, lo que se asume es que si la actividad criminal es muy grande, el efecto es negativo; pero si no lo es, podría ser benéfico. Entonces, dónde está el equilibrio y cuál es la situación del Estado son cosas que sería interesante saber. Por ahí va la aplicación.

.Lo del aprendizaje distribuido podrá tener impacto en tanto es una técnica para estas situaciones que son muy comunes en los biólogos y etólogos que estudian las especies animales. Muchas veces tienen datos de las especies en diferentes lugares del estado. Y ahí lo normal es que se junta todo, pero eso no es una buena aproximación. Los datos de Los Tuxtlas y los datos de Xalapa son distintos. Lo que tenemos es un software libre que la gente puede adaptar a sus necesidades.

AIC: ¿Cuáles son los resultados que se esperan en estas dos investigaciones y aplicaciones?

AGH: Sencillamente que sean útiles. En el primero, el aprendizaje distribuido es el que tengo más avanzado, el otro está empezando, lo que yo esperaría es que la gente comenzara a utilizar más esta herramienta que no es muy común. La minería de datos ahora en computador es relativamente fácil. Lo normal es juntar todos los datos en un solo sitio y ya está. El aprendizaje distribuido que planteamos no contempla esa posibilidad, sino que mimetiza un poco la manera en cómo un grupo de expertos aprendería.

Una comunidad de científicos no junta todos sus datos para llegar a unas conclusiones. En realidad cada quien hace sus experimentos, formula sus hipótesis y luego esas hipótesis son contrastadas unas con otras en congresos o a larga distancia. Estos sistemas están inspirados en esa manera de trabajar. Por tanto, tentativamente proveen de estrategias de aprendizaje diferentes.

La principal característica es que los usuarios de ella pueden definir diferentes flujos de trabajo. Nosotros, junto con la herramienta, ofrecemos maneras de organización, pero si ninguno se te acomoda tú puedes definir el tuyo. El protocolo tiene que ver con quién compartes datos e hipótesis, cómo se contrastan y lo que ha dado lugar es a una herramienta muy útil.

Para el contexto e impacto en Veracruz, lo que hicimos fue reutilizar el problema de la detección del cáncer cervicouterino. Esos son problemas que computacionalmente son muy pesados. Analiza un video donde el médico aplica acetona al útero y se ve cómo se da la reacción. Se ha hecho un trabajo para computar eficientemente para hacer la detección con una precisión parecida a la de los médicos. Y sabiendo eso, nosotros propusimos hacer una aproximación. Tomamos pixel por pixel y el video lo descompusimos foto por foto y en cada pixel se extrajeron las características de color, textura. Y eso da lugar a la base de datos de cinco millones de ejemplos que ya no puedes hacerlo con una computadora. Nosotros distribuimos los datos, artificialmente los partimos para poder procesarlos. La cosa va muy bien, mejoramos la precisión con respecto a la que se tenía.

Más información en esta sección
Comentarios