Luces y sombras
Desde hace algunos años, las tecnologías de inteligencia artificial basadas en el procesamiento de datos y en la toma de decisiones automatizadas se han implementado en diversas áreas de la vida cotidiana. En el caso de la salud, esta tecnología puede representar importantes avances y beneficios, pero también muchos problemas y vulneración de derechos, como los relativos a la privacidad y la no discriminación. Por eso es necesario habilitar una discusión pública y evitar el «solucionismo tecnológico».
Hace tiempo que las noticias sobre nuevos desarrollos tecnológicos se refieren a la «inteligencia artificial» y a la revolución que esta tecnología va a suponer en la sociedad debido a todas las aplicaciones posibles que tiene y tendrá en las distintas esferas de la vida cotidiana1. Se habla de la Cuarta Revolución Industrial2, de los cambios en el mundo del trabajo –con todo lo que eso puede implicar para las personas trabajadoras–, de los impactos en el sector agropecuario, en la educación, en los servicios y en la salud, entre muchos más. Algunas novedades de la ciencia y la tecnología tienen una alta visibilidad pública y reciben atención por parte de la clase política, de los medios de comunicación hegemónicos y, como consecuencia, de la ciudadanía. Otras no gozan de tanta publicidad, quizás por ser más complejas o por estar en etapas de diseño o investigación, pero todas impactan en la sociedad de diversas maneras. El ámbito de la salud se encuentra fuertemente atravesado por el desarrollo de la ciencia y la tecnología. Cualquier persona que se atienda en un hospital, una clínica o un consultorio o que se someta a algún estudio o tratamiento es consciente de la cantidad de aparatos que se usan para detectar alguna patología o condición que permita establecer un diagnóstico y, así, decidir e indicar un tratamiento para la cura. Además, en el marco de lo que se conoce como medicina preventiva, existen múltiples estudios y análisis que se hacen con cierta regularidad para que el personal de salud pueda hacer un seguimiento del estado de salud de sus pacientes –mediante datos que se analizan– y anticiparse a una enfermedad. Ahí es donde entra en juego el desarrollo de tecnologías de inteligencia artificial, machine learning y deep learning, basadas en el análisis de grandes volúmenes de datos (big data3) para entrenar algoritmos que permitan detectar diversas patologías, establecer diagnósticos y sugerir tratamientos. Pero ¿qué tiene que ver exactamente todo esto con la salud? Vayamos por partes.
La inteligencia artificial podría definirse como el campo que estudia cómo los sistemas artificiales pueden realizar acciones inteligentes. ¿Qué sería una máquina inteligente ideal para la ciencia de la computación? En la definición de David Poole, Alan Keith Mackworth y Randy Goebel, «un agente flexible que percibe su entorno y lleva a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo o tarea»4. Este campo está conformado por diversas técnicas que se utilizan para intentar resolver problemas y tomar decisiones de forma similar a como lo hacen las personas en su vida cotidiana.
Algunos ejemplos: un programa que permite agilizar las búsquedas de candidatos para un puesto de trabajo; un sistema de riego automático que, mediante sensores, mide la humedad de la tierra para decidir en qué sectores debe regar y en cuáles no, para así ahorrar agua y energía; algoritmos de recomendación de películas y series, música o contactos, como los de las plataformas que utiliza habitualmente una parte importante de la población, que se basan en el análisis del comportamiento de las personas usuarias para saber qué recomendarles; un sistema que analiza si un cliente de un banco puede o no recibir un crédito.
Entre los comportamientos considerados «inteligentes» de los que ya son capaces las computadoras se incluyen aprender nuevas tareas, resolver problemas, captar y analizar la información de alrededor, etc. Uno de los desafíos que todavía enfrentan es el de mejorar su capacidad de comprender los contextos, principalmente para el desarrollo del lenguaje natural, para lo que necesitan ampliar su comprensión de la semántica5. En todos estos casos, el insumo fundamental de los sistemas son los datos que les sirven a los algoritmos para tomar una o varias decisiones. La irrupción de internet, la disponibilidad ubicua de datos, la capacidad casi masiva de recolectar esos datos y la potencia de cómputo que hoy está disponible hace que en los últimos años haya habido un despliegue exponencial del machine learning (aprendizaje de máquina o aprendizaje automático) y del deep learning (aprendizaje profundo).¿En qué consiste el machine learning del que tanto se habla? Las máquinas, desde complejos artefactos para uso médico hasta dispositivos móviles, «aprenden» de los datos que se les suministran o de los que recolectan mediante sensores propios (por lo tanto, cuantos más datos reciban, más aprenden). A partir del tratamiento automatizado de esos datos y de sus algoritmos pueden establecer predicciones e inferencias y tomar decisiones. En el deep learning, el proceso de aprendizaje automático es un poco más complejo, pero ambos casos están relacionados con algoritmos inspirados en la estructura y función del cerebro, y por eso se habla de redes neuronales artificiales (rna). Las rna son modelos computacionales que procesan información imitando el funcionamiento de las neuronas biológicas, y por lo tanto están compuestas por nodos o «neuronas» que reciben, transmiten y envían información y que están conectados como una red. Las rna suelen estar conformadas por múltiples capas de nodos ocultos, que son los que transmiten la información entre los nodos de la red –de entrada y de salida–. A estas capas se las conoce como «capas de aprendizaje», y cuanto mayor es la cantidad de capas, mayores son la profundidad de la red y la capacidad de aprendizaje. Estas multicapas y su profundidad dan lugar al deep learning.
Es necesario destacar desde ahora que este es un proceso complejo en el que también intervienen las decisiones humanas, desde el diseño de los conjuntos de datos para el entrenamiento hasta la programación de los propios algoritmos, y que pueden derivar en un resultado sesgado. Las empresas que desarrollan este tipo de sistemas argumentan que para mejorar la eficacia y precisión y disminuir los sesgos, necesitan almacenar y analizar cada vez más datos. En el ámbito de la salud, estos datos son personales y sensibles. Los datos personales son los que permiten identificar a una persona concreta, como su nombre y apellido, fecha de nacimiento, domicilio, información de contacto y tipo de cobertura médica, entre otros. Entre los datos sensibles se incluyen aquellos vinculados al estado de salud (por ejemplo, diagnósticos, enfermedades o tratamientos), pero también los biométricos y genéticos. Estos últimos no están contemplados como datos sensibles en algunas legislaciones, como en la Ley de Protección de Datos Personales de Argentina6, pero sí lo están en el Reglamento General de Protección de Datos (rgpd) de la Unión Europea.
Luces: ejemplos y casos
Todo esto puede sonar muy técnico y un poco abstracto y puede parecer casi ciencia ficción. Sin embargo, está lejos de ser así. Por el contrario, existen múltiples casos en los que ya se están aplicando estas tecnologías en el ámbito de la salud, y todos los días se conocen nuevas investigaciones que están en curso, no solo en el mundo desarrollado, sino también en América Latina. Algunas se vienen implementando desde hace años. Otros casos son más recientes y han tomado impulso a raíz de la pandemia de covid-19. De hecho, la inteligencia artificial aplicada a la medicina es un rubro en el que ya están incursionando gigantes de la tecnología, como Microsoft y Google, por su gran valor comercial7.En enero de 2020, desde la iniciativa fair lac del Banco Interamericano de Desarrollo (bid), se publicó un documento en el que se citan los siguientes datos provistos por la Organización Mundial de la Salud (oms): «En el mundo existen cerca de 138 millones de pacientes que resultan perjudicados cada año por errores médicos, de los cuales 2,6 millones fallecen. Durante 2015, los errores médicos relacionados con el uso incorrecto de fármacos y fallas de diagnóstico representaron la tercera causa de muerte en Estados Unidos y 10% de todas las muertes»8. A raíz de esto, se considera que el desarrollo de los sistemas informáticos de salud permitirá la implementación de algoritmos preventivos, que hagan posibles diagnósticos tempranos de enfermedades y patologías y que mejoren la calidad y eficiencia de la atención. Por ejemplo, un modelo basado en deep learning puede aprender a realizar tareas de clasificación directamente a partir de imágenes, texto o sonido, sin necesidad de intervención humana para la selección de las características en común. Esta particularidad del deep learning es lo que lo hace fundamental para la medicina, ya que puede analizar imágenes de resonancias o radiografías para detectar qué patrones se repiten en aquellas que muestran, por ejemplo, cáncer de mamas, y así agilizar la detección de esta misma patología en otras personas.
En este sentido, un caso muy reconocido a escala internacional es el sistema Watson de ibm, que se utiliza para realizar diagnósticos en algunos hospitales de eeuu –como en el Memorial Sloan-Kettering Cancer Center– a partir de datos que recopila de las historias clínicas de alrededor de un millón y medio de pacientes y dos millones de páginas de artículos académicos en revistas científicas. En este caso, quizás el beneficio resulte evidente, ya que esto efectivamente podría servirle al personal de salud para realizar una detección temprana y comenzar a tratar las enfermedades lo más rápido posible, mejorando así las oportunidades de recuperarse de cada paciente.
En Argentina, la empresa Entelai desarrolló un programa que analiza imágenes dentro del sistema de reportes médicos. El programa fue diseñado para resolver el problema de la sobrecarga de trabajo de los especialistas en imágenes, que deben analizar y redactar entre 10 y 30 reportes por día, en el caso de resonancias de cerebro, y entre 30 y 60 reportes por hora en el de las mamografías (es decir, una por minuto o una cada dos minutos). Para esos casos, la empresa desarrolló una solución llamada EntelaiPic, que le permite al especialista, además de ver la resonancia magnética o la mamografía, tener un preinforme que le indica a qué zona prestarle atención y le marca la presencia de lesiones en la resonancia. Además, en el marco de la pandemia, Entelai se basó en este sistema para desarrollar la herramienta de ia EntelaiPic Covid-19, que permite analizar con precisión y velocidad un enorme número de radiografías de tórax y detectar neumonía o infección en los pulmones a partir del análisis de miles de imágenes. En Brasil se desarrolló la aplicación laura, un sistema de inteligencia artificial desarrollado por el Instituto Laura Fressatto, que tiene como objetivo reducir muertes evitables por sepsis mediante la intervención temprana. Una plataforma de monitoreo de salud identifica pacientes en deterioro clínico y notifica en tiempo real al equipo de atención, analizando los registros electrónicos de cuidado médico. Este es un sistema de machine learning, deep learning, procesamiento de lenguaje natural (pln) y toma de decisiones.
En América Latina, además de Argentina y Brasil, también Chile, Colombia, México y Perú han avanzado en desarrollos de inteligencia artificial para la salud. A escala global, China tiene un plan de desarrollo que apunta a posicionar a ese país como líder mundial en el diseño de tecnologías de inteligencia artificial hacia 2030 y a que este sea el principal motor de la industria para 2050, con una inversión de 150.000 millones de dólares. Por su parte, eeuu crece de la mano de las big tech: con ai for Health de Microsoft, Watson Health de ibm, y Google con su proyecto GoogleLeNet y su Dataset Search.
Cruzando el Atlántico, en la ue se destacan los avances de España en sistemas basados en redes neuronales artificiales y algoritmos predictivos para la detección temprana del cáncer de mama. Finalmente, en el continente africano, Kenia desarrolló un chatbot gratuito –Sophie Bot– para responder preguntas sobre salud sexual y reproductiva, y en Sudáfrica la compañía Numberboost trabaja para desarrollar un sistema que permita a los ciudadanos ubicar clínicas de salud móviles cercanas.
Sombras: riesgos e impactos sociales
Aunque nos encantaría que así fuera, y al principio hasta podría parecerlo, no todas las investigaciones y desarrollos de inteligencia artificial aplicada a la salud ofrecen buenas noticias. Estamos en una era en la que impera el «solucionismo tecnológico», según palabras de Evgeny Morozov, y a cada problema que debe afrontar la humanidad se le intenta aplicar una tecnología, un programa, una app. La mayoría de las veces ni siquiera se realizan estudios de sus impactos sociales o en los derechos de las personas, algo que podría asemejarse a los estudios de impactos ambientales que deben hacerse antes de avanzar, por ejemplo, en la instalación de una fábrica o en la explotación de una mina en determinada región. En lo que se refiere a la medicina preventiva, existen algunos sistemas diseñados para realizar predicciones y anticiparse a situaciones delicadas y complejas, con posibles impactos negativos sobre derechos fundamentales, como el derecho a la privacidad, o con el refuerzo y la consolidación de desigualdades y situaciones de discriminación preexistentes en la sociedad.
Un caso en el que esto se hizo evidente y que tuvo repercusiones en los medios de comunicación fue protagonizado en 2018 por el entonces gobernador de la provincia argentina de Salta, Juan Manuel Urtubey, quien mientras se llevaba a cabo el debate nacional sobre la legalización de la interrupción voluntaria del embarazo, anunció que mediante un sistema de inteligencia artificial iba a ser posible predecir el embarazo de niñas y adolescentes9. A raíz de este anuncio, desde el Laboratorio de Inteligencia Artificial Aplicada de la Facultad de Ciencias Exactas de la Universidad de Buenos Aires alertaron respecto a que se trataba de una decisión algorítmica basada en prejuicios: «Tanto los problemas metodológicos como los datos poco confiables plantean el riesgo de tomar medidas incorrectas a los responsables de políticas públicas»10.Por otro lado, y esto no es una novedad, la tecnología puede fallar. El problema de la falla de estos sistemas que toman decisiones automatizadas es que, en algunas ocasiones, no permiten detectar con facilidad cómo se tomó la decisión ni dónde se produjo la falla. Por ejemplo, la aplicación de tecnologías de inteligencia artificial no se limita solo a diagnósticos y tratamientos, sino que se extiende a sistemas automáticos de asignación de turnos o, como en el caso que relata un artículo publicado en The Verge en 2018, se utiliza para asignar personal de cuidado para personas mayores o con diversas discapacidades11. En el ejemplo que reporta el periodista Colin Lecher, un algoritmo de atención médica había comenzado a cortar la asignación de personal de cuidado a personas mayores sin que nadie supiera ni pudiera explicar a qué se debía la decisión que estaba tomando el sistema, en qué datos se basaba ni qué criterios utilizaba.
A partir del análisis y el procesamiento de los datos de los que se alimentan, los sistemas pueden ser capaces de encontrar patrones inferenciales, aunque la existencia de estos patrones, y de una correlación, no implica que siempre haya causalidad entre ellos. Allí es donde es fundamental contar con la intervención humana y con sistemas que permitan ser estudiados para comprender cómo llegaron a las decisiones tomadas, cómo fueron programados y con qué datos fueron entrenados. En una entrevista de 2020, Sandra Wierzba, abogada especialista en e-salud y telemedicina, contó que en la actualidad existen aplicaciones de autoevaluación para el diagnóstico de diabetes, de trastorno bipolar, de ictericia neonatal y de melanoma12. Sin embargo, la mayoría de estos productos puestos a disposición en las tiendas de aplicaciones –ya sea de pago o gratuitas– tienen problemas de calidad y de seguridad. Por ejemplo, «a pacientes de diabetes se les hacía una prescripción en base a datos, pero no se contemplaba otras medicaciones, tipo de vida o alimentación», explica citando una investigación realizada por el Instituto de Tecnología, Salud y Derecho de la Universidad de Chicago.
El acceso a datos y su uso y tratamiento adquieren gran relevancia debido a su incidencia social. Es por esto que, en los últimos años, se viene discutiendo en diversos espacios sobre la necesidad de pensar en el desarrollo de una inteligencia artificial ética, en el caso de que eso sea posible13. Sin embargo, esta mirada no es suficiente para abordar la problemática de la recopilación, uso y tratamiento de datos personales y sensibles de la población. Es necesario, además, sumar al análisis un enfoque de derechos humanos, fundamentado en los acuerdos a los que han llegado gran parte de las naciones del mundo y que permiten basarse en estándares que respeten los derechos fundamentales de las personas, para que los desarrollos y las implementaciones de las tecnologías de inteligencia artificial tengan como objetivo central el bien común.
Uno de los mayores desafíos en relación con los sistemas de inteligencia artificial es lograr la disminución de sesgos, ya sean producto de los conjuntos de datos que se utilizan para entrenar a los algoritmos (sesgo de los datos) o del diseño mismo de los algoritmos, que puede llevar a resultados sesgados (sesgo de los algoritmos). Esto, que se repite en cualquier ámbito en el que se utilicen sistemas basados en análisis automatizados de datos, cobra mayor relevancia en la salud, ya que un diagnóstico basado en datos sesgados puede tener un impacto muy perjudicial en la población.
En pos de disminuir esos sesgos, quienes diseñan este tipo de soluciones argumentan que es necesario recolectar mayor cantidad y variedad de datos; principalmente, datos demográficos como edad, sexo biológico y género, raza y etnia, y zona geográfica de residencia. En este sentido, es importante destacar que, aunque no se incluya el nombre y apellido de su titular, estos datos, cruzados con los de salud, pueden permitir identificarlo –incluso a pesar de atravesar procesos de disociación de datos, anonimización o seudonimización–, y esto, además de vulnerar la privacidad y la intimidad de una persona, puede tener efectos discriminatorios. Algunos de los riesgos vinculados a los datos que se utilizan para estos sistemas son los problemas de seguridad (informática y de la información), vulneración de la privacidad y discriminación arbitraria (conocida como discriminación algorítmica). A su vez, la posible vulneración de la privacidad que puede emerger de la identificación de una persona puede llevar a que esta sea discriminada por su estado de salud, como se observa en el informe del Instituto Nacional contra la Discriminación (inadi) de Argentina referido a las consultas recibidas por ese organismo durante el primer bimestre de aislamiento social, preventivo y obligatorio (aspo), entre marzo y mayo de 202014. Esto podría verse reflejado en el aumento del valor de la cuota del seguro médico, en la dificultad para conseguir un crédito bancario o para conseguir empleo, entre otras posibles consecuencias.
Desafíos para una inteligencia artificial fiable y respetuosa de la privacidad
En un escenario de crecimiento y envejecimiento poblacional, la necesidad de atender con la mayor rapidez posible la salud de la población se convierte en una prioridad que parece poder resolverse, en mayor o menor medida, a partir del diseño y aplicación de nuevas tecnologías que permitan automatizar procesos que hoy son realizados de forma manual y presencial. Los desafíos, sin embargo, son abundantes y diversos. Por un lado, la necesidad de disminuir los sesgos para que la implementación de estas técnicas no profundice la discriminación y las desigualdades existentes en las sociedades. Por otro lado, la necesidad de comprender el valor que tienen estos datos y la importancia social de protegerlos para evitar que se vulnere la privacidad de las personas, con el riesgo de que estas no consigan un empleo o lo pierdan, o que esos datos sean utilizados por aseguradoras, entidades bancarias o prestadoras privadas de salud para negar atención y servicios o para asignar los valores de las cuotas de forma discriminatoria.
En el caso puntual del despliegue de este tipo de tecnologías en el marco de la lucha contra el avance del covid-19, es fundamental que las autoridades de cada jurisdicción se aseguren de que el intercambio de datos se ajuste a las normas de seguridad y privacidad y no genere riesgos de que los datos de las personas sean mal utilizados. Para evitar esto último, desde diversos sectores que trabajan en defensa del derecho a la privacidad, se sostiene que estas tecnologías que recolectan datos personales, de salud, biométricos y de ubicación –en el caso de las aplicaciones para dispositivos móviles– deben ser utilizadas como medidas de excepción, limitadas en el tiempo, usadas solo bajo estricta necesidad, implementadas con absoluta transparencia y eliminadas no bien cese la razón que justificó su uso, con la consiguiente destrucción de registros que permitan o habiliten la discriminación o vulneración de los derechos de las personas.
Actualmente, en diferentes niveles, hay debates sobre cómo deberían regularse estas tecnologías, principalmente porque el mercado global hace que los datos crucen fronteras casi sin límites ni controles. Un ejemplo claro podría ser cualquier aplicación móvil que se anuncie como un sistema para detectar la probabilidad de cáncer de piel a partir de una fotografía15. ¿Quién diseña la aplicación? ¿Qué datos se piden? ¿Dónde se alojan esos datos? ¿Cómo se utilizan? ¿Quién controla ese uso? ¿Qué regulación se aplica para la protección de los datos? ¿Debería diseñarse una regulación específica o se podría recurrir a legislación vigente? Mientras eso se discute, existe no obstante en la actualidad un marco regulatorio que permite abordar el contexto actual de desarrollo e implementación de las tecnologías de inteligencia artificial y que, en Argentina, está a su vez enmarcado en los tratados internacionales de derechos humanos. Es necesario destacar que, independientemente de si se redacta o no una normativa específica, resulta prioritario hacer cumplir la legislación vigente en materia de protección de datos personales, por lo que el trabajo de la autoridad de aplicación de la Ley de Protección de los Datos Personales es central. En este sentido, también adquiere enorme importancia el fortalecimiento de las medidas de seguridad informática para resguardar esta información de posibles ataques, teniendo en cuenta el enorme valor comercial que tienen en el mercado de la salud.
Existen algunas preguntas que deberían plantearse y responderse para promover e impulsar tecnologías de inteligencia artificial que respeten estándares de derechos humanos. ¿Es posible disminuir los sesgos sin tener que recolectar cada vez más datos? ¿Es factible, verdaderamente, una anonimización, seudonimización o disociación de datos que sea irreversible? ¿Cómo se gestionan los datos personales y sensibles en el desarrollo de investigaciones y productos que se utilizan en la práctica médica? ¿Quiénes tienen acceso a las bases de datos? ¿Con qué fines? ¿Cómo usa el Estado la información disponible de la salud de los ciudadanos? ¿Cómo la usan las empresas de seguros, las farmacéuticas, las instituciones de salud? ¿Qué pasa con las big tech que quieren entrar también en este rubro? ¿Es información que puede llegar a manos de un futuro empleador? ¿Quién audita? ¿Cómo se controla?
Es importante destacar que uno de los impactos que tienen estas tecnologías en las personas y en la sociedad en su conjunto es lo que se conoce como su pervasividad; es decir que las personas no pueden escapar a estos sistemas una vez que están instalados. En la medida en que existen cada vez más ciudades inteligentes o implementaciones que son obligatorias, las personas no pueden ejercer el derecho de opt out (derecho de salir). Ante los potenciales (y concretos) riesgos que presenta la implementación de estas tecnologías en la salud, y para evitar vulnerar a diversos sectores de la sociedad con desarrollos sin un trabajo profundo y responsable que tenga en cuenta los impactos sociales, es necesario que exista un debate público sobre cuáles son los problemas que deberían resolverse aplicando estas tecnologías, sin que sus efectos sean más graves que lo que vienen a solucionar.
1. Esto se suma a los avances en robótica, cadena de bloques (blockchain), nanotecnología, computación cuántica, biotecnología, internet de las cosas (IOT, por sus siglas en inglés), impresión 3D, conectividad 5G y vehículos autónomos, entre otros.
2. Klaus Schwab: «The Fourth Industrial Revolution: What It Means, How to Respond» en World Economic Forum, 16/1/2016.
3. «Big data» es una expresión que describe cualquier cantidad voluminosa de datos estructurados, semiestructurados y no estructurados que tienen el potencial de ser extraídos para obtener información.
4. D. Poole, A.K. Mackworth y R. Goebel: Computational Intelligence: A Logical Approach, Oxford UP, Nueva York, 1998.
5. Karen Hao: «Aunque lo parezca, la ia sigue sin entender nada de lo que lee y dice» en MIT Technology Review, 6/2/2020.
6. La Ley de Protección de los Datos Personales de Argentina define así los datos sensibles: «Datos personales que revelan origen racial y étnico, opiniones políticas, convicciones religiosas, filosóficas o morales, afiliación sindical e información referente a la salud o a la vida sexual». Este tipo de datos goza de una mayor protección. Ley 25.326 de Protección de los Datos Personales, 4/10/2000, art. 2o, disponible en http://servicios.infoleg.gob.ar/infolegInternet/anexos/60000-64999/64790/norma.htm.
7. V. «Health & Bioscience» en Google Research, https://research.google/research-areas/health-bioscience/; James Vincent: «Microsoft Buys ai Speech Tech Company Nuance for $19.7 billion» en The Verge, 12/4/2021.
8. Marcelo Cabrol, Natalia González Alarcón, Cristina Pombo y Roberto Sánchez Ávalos: «FAIR LAC: Adopción ética y responsable de la inteligencia artificial en América Latina y el Caribe», BID, 1/2020.
9. Bárbara Defoix: «El método que aplica Urtubey para predecir el embarazo adolescente» en Perfil, 12/4/2018.
10. Laboratorio de Inteligencia Artificial Aplicada (LIAA): «Sobre la predicción automática de embarazos adolescentes», 2018, disponible en https://liaa.dc.uba.ar/es/sobre-la-prediccion-automatica-de-embarazos-adolescentes/.
11. Colin Lecher: «What Happens When an Algorithm Cuts Your Healthcare» en The Verge, 21/3/2018.
12. Cecilia Danesi: «IA, telemedicina y Covid-19», entrevista a la doctora Sandra Wierzba, 19/5/2020, disponible en www.instagram.com/tv/cay2zwmhe7n/.
13. Cade Metz: «Is Ethical ai Even Possible?» en The New York Times, 1/3/2019.
14. INADI: «Consultas recibidas en el INADI durante el primer bimestre de ASPO (20-3 al 20-5)», 5/2020.
15. Izan González: «Google detectará el cáncer de piel con solo una foto hecha con tu móvil» en El Español, 18/5/2021.
Carolina Martínez Elebi
Fuente: https://nuso.org/articulo/inteligencia-artificial-aplicada-la-salud/?utm_source=email&utm_medium=email&utm_campaign=email
Foto tomada de: https://nuso.org/articulo/inteligencia-artificial-aplicada-la-salud/?utm_source=email&utm_medium=email&utm_campaign=email
Deja un comentario