Si la Inteligencia Artificial determina que la mejor forma de tratar una enfermedad es operarte ¿Te quedarías sin la opinión de un médico? ¿Qué pensarías si el banco toma la decisión de no entregarte un crédito, solo porque la Inteligencia Artificial cree que no eres un buen candidato?
El porqué de las decisiones en torno a la IA.
El desarrollo de la Inteligencia Artificial (IA) ha tomado mayor relevancia en el público general. Gran parte de las páginas en medios de comunicación se han referido a la incursión del ChatGPT, que, al masificarse, ha evidenciado la amplia gama de aplicaciones de esta inteligencia, abriendo también un debate ético. ¿Cuán correcto es su funcionamiento? Depende de los datos con que se entrenan y lo que se les solicita. Sesgos en los datos que almacenan pueden llevar a respuestas erradas, por lo que no es correcto pensar que la Inteligencia Artificial nos provee oráculos en los cuales confiar ciegamente.
La Inteligencia Artificial complementa el razonamiento intuitivo y, entonces, su funcionamiento tiene que hacer sentido con el conocimiento humano. Si bien, mediante sus herramientas pueden hacerse nuevos descubrimientos en áreas como la salud, por ejemplo, un tratamiento más efectivo o personalizado, la Inteligencia Artificial se considera como un apoyo a la toma de decisiones. Es después el profesional quien debe evaluar “la recomendación” que la IA entrega.
En simple, para que el médico determine si el tratamiento recomendado es el adecuado, la decisión debe estar acompañada de explicaciones que la sustenten. Muchos avances en el ámbito de la salud se las debemos ya al uso de IA. Enfermedades complejas como el Alzheimer, han sido beneficiadas por su uso, donde el análisis “in silico” se ha posicionado como etapa previa al análisis in vitro y los ensayos clínicos. Quizás el ejemplo más emblemático es el de la empresa DeepMind y el instituto EMBL-EBI, quienes en conjunto lograron predecir las estructuras tridimensionales de casi todas las proteínas conocidas, marcando un hito para el análisis del funcionamiento de fármacos.
Imaginemos otro escenario, una situación financiera. Si una IA determina que un cliente no es elegible para un crédito, es fundamental brindarle una explicación sobre las razones detrás de esta decisión. De esta manera, se facilita la comunicación y se permite argumentar la resolución. A nivel interno, el ingeniero que utilizó la IA, de seguro no es quien resuelve si asignar o no el crédito, por lo que debe presentar y defender esto ante un director. Aquí, las explicaciones que acompañan la decisión son clave, no solo para la empresa, sino también para informar al cliente final.
Somos una sociedad cada vez más informada. No nos quedamos con una única opinión cuando vamos al médico y estamos atentos a que nos expliquen los motivos para tomarnos un medicamento. Si vamos al banco por un crédito no nos quedamos tranquilos con un no sin justificación.
Tal como esperamos que las personas nos digan el porqué de sus decisiones, también debemos esperar ello de la Inteligencia Artificial.
En SoftServe estamos haciendo grandes esfuerzos para que la Inteligencia Artificial sea cada vez más parte del quehacer humano, poniendo foco en el desarrollo de Inteligencia Artificial Explicable (XAI su sigla en inglés), es decir lo más comprensible posible para tomadores de decisiones y usuarios en general. Estamos abocados en hacer que la Inteligencia Artificial avance en esa línea y, como científico de datos senior, soy partícipe activo del avance que ha tenido en Chile en poco menos de un año.
Por Rodrigo Assar
Comentarios recientes