Panóptico
El derecho a la privacidad frente a la Inteligencia Artificial
Por: Felipe Alfredo Fuentes Barrera
Introducción
La Inteligencia Artificial (IA) ha ocupado el centro de atención alrededor del mundo desde que el ChatGPT de la compañía OpenAI fue lanzado al público en noviembre de 2022. Sin embargo, esta tecnología no es novedosa y, de hecho, ha sido introducida y empleada con éxito desde hace muchos años en ciertos campos como el cine –para la generación de efectos especiales –o en videojuegos–particularmente, aquellos que se juegan en solitario–.
Lo que atraviesa el mundo en estos momentos, conocido como “verano de la IA” –tan solo una de varios que ha habido desde la década de los 50s– promete ser toda una revolución tecnológica con el potencial de impactar de forma transversal en todos los ámbitos de la economía y la vida en sociedad.
Ello sin duda abre una infinidad de posibilidades y beneficios para la humanidad como en su momento sucedió con la popularización de la web, no obstante, como ocurre en cualquier revolución tecnológica la dimensión y alcances con que la IA impactará al mundo aún no están claros para nadie. Existen previsiones o estudios en torno a los ámbitos que podría modificar con mayor profundidad, pero lo cierto es que no hay entera certeza al respecto.
El Fondo Monetario Internacional prevé que cerca del 40% de los empleos a nivel mundial se vean afectados de alguna manera, principalmente en los países desarrollados, en donde dicha afectación puede alcanzar hasta al 60% de las plazas laborales, pues a diferencia de otras revoluciones tecnológicas en las que la automatización ha estado dirigida a mejorar procesos repetitivos, lo que distingue a la IA es su capacidad para llevar a cabo tareas altamente técnicas. En los países en vías de desarrollo el impacto, se pronostica, será menor (Georgieva, 2024).
La IA posee grandes ventajas que, usadas correctamente, son capaces de mejorar el rendimiento económico y la calidad de vida de prácticamente la mayoría de los habitantes del mundo.
La IA tiene una capacidad de procesamiento de datos en un tiempo sumamente corto que el ser humano no es capaz de igualar. Asimismo, la posibilidad de identificar patrones y preferencias haciendo uso de ella ha demostrado ser, por ejemplo, fundamental para aumentar las ganancias de las compañías y hacer más eficientes los mercados de valores. Es común actualmente que se empleé IA para definir estrategias y portafolios de inversión al reducirse las probabilidades de pérdida producto de las emociones o el error humano (University of Sunderland, 2023).
Se considera, incluso, que el aumento exponencial de la productividad a que conlleva el avance de la IA, puede tener un impacto social muy relevante al hacer posible la introducción de un Ingreso Básico Universal en favor de los seres humanos a partir de la riqueza generada por la tecnología.
Por otra parte, la IA ha mostrado ser útil para realizar tareas que requieren de una gran precisión. Por ejemplo, en el sector médico la IA de tipo predictiva –que es aquella que identifica patrones a partir de la Big Data– se perfila como fundamental en varias especialidades que requieren de un diagnóstico preciso, no solo de una enfermedad, sino también de los riesgos para realizar una cirugía tomando en cuenta el historial de un paciente especifico.
Ya se ha ideado una máquina de cirugía robótica con IA que ha operado exitosamente el intestino de un cerdo (Graham, 2022) y recientemente se ha creado un aparato que es capaz de identificar células cancerígenas (McCartney, 2023). Asimismo, esta tecnología, se prevé, sea útil en campos de alto riesgo en los que el ser humano no sería capaz de encontrarse, como explorar la profundidad de los océanos o el espacio.
Finalmente, hay que recordar que, como sucede con toda máquina, la IA no está sujeta a horarios de trabajo ni posee un rendimiento decreciente por falta de sueño, comida o esparcimiento, lo que representa otro factor importante para aumentar la eficacia en todos sentidos.
La IA y el derecho a la privacidad
Todas estas ventajas implican beneficios enormes que han incentivado un avance acelerado y decidido de esta tecnología en diversos ámbitos, hasta el punto en que este proceso parece imparable. Como es de dominio público, hace un año Elon Musk, Steve Wozniak y otros cientos de destacadas figuras relevantes del ámbito tecnológico firmaron una carta abierta para pausar temporalmente por el plazo de seis meses el desarrollo y pruebas de modelos de IA que eran más avanzados que el ChatGPT 4.0 con el fin de evaluar ciertos aspectos que resultaban riesgosos para la humanidad (Future of life, 2023).
Sin embargo, en esos seis meses el desarrollo de la IA no solo continuó, sino que aumentó en velocidad y alcances, pues cada vez con mayor frecuencia se observa la introducción inédita de la IA en otros campos fuera del sector tecnológico propiamente, al igual que la invención de novedosas herramientas como las anteriormente mencionadas. Lo anterior debe llevarnos a reflexionar sobre si es realista el intento de frenar el avance de la IA por parte de un grupo de personas, o si bien, por el contrario este fenómeno posee un desarrollo que depende de todos y ha llegado para quedarse dados los amplios beneficios que posee para diversos fines.
Como es natural, la existencia de notables beneficios –como ocurre con la IA–, viene aparejado, muchas veces, de riesgos con iguales proporciones. Son varios los riesgos advertidos que podría acarrear esta tecnología –reproducción de sesgos discriminatorios, manipulación o pérdida de una óptica humanista, etc–, sin embargo, uno de los más inmediatos es la vulneración al derecho a la privacidad de las personas, pues el machine learning con que opera la IA utiliza la Big Data disponible para predecir tendencias, clasificar información o generar material (IBM, 2023).
Esto implica por si mismo un problema si tomamos en cuenta que alrededor del 60% de la población mundial posee acceso a internet, y es ahí donde se alojan gran cantidad de datos e información personal de los usuarios. Cabe destacar, además, que el proceso de digitalización ha avanzado a pasos agigantados visto en retrospectiva. Según cifras del Banco Mundial, en el año 2000 apenas 7% de la población tenía acceso a la red, mientras en el 2022 esa cifra ascendió a 63%. En algunos países desarrollados dicha cifra supera, incluso, el 90% de la población (Banco Mundial, 2022).
Algunos académicos han acuñado y estudiado desde hace unos años el fenómeno del homo digitalis, que refiere a aquella generación de seres humanos que ha nacido rodeada de máquinas y que ya no necesita del teclado para interactuar con la tecnología, sino que puede hacerlo por voz o con los dedos sobre la pantalla (López-León, 2018).[1]
Este nivel de digitalización mundial implica que los datos personales de la mayoría de los habitantes del planeta se encuentran expuestos a ser vulnerados por IA predictiva o generativa, a través de la llamada perfilación de datos digitales[2] o la microsegmentación[3] de personas.
La data existente en la web es enorme. Cada año se produce más información en línea como resultado de la expansión de la red 5G y el avance en la cantidad de usuarios que se digitalizan. En 2018, se calculó que el mundo producía 2.5 quintillones de bytes de información digital al día y, según estimaciones, el mundo llegará a alcanzar en 2025 entre 175 y 180 zettabytes[4] (Petroc, 2024) de data total almacenada en internet (IBM, 5 Things to Know about IBMs New Tap Sorage World Record, 2020). En ese sentido, se habla de un “mundo” –dicho coloquialmente– de información al servicio de la IA que se puede colectar de forma directa a través de encuestas o foros de internet, como de forma indirecta en redes sociales, es decir, sin que los internautas sean conscientes de ello.
[1] El académico Román Cendoya distingue entre tres clases de seres humanos actualmente: i) los prebotónicos que son aquellos que nacieron sin tecnología y tuvieron que adaptarse a una edad adulta a ella; ii) los botónicos que son aquellos afortunados que nacieron sin tecnología pero pudieron adaptarse al recibirla a una edad temprana y iii) los táctiles que son quienes ya no requieren de teclados sino que ya solo tocan la pantalla -propiamente el homo digitalis-
[2] La perfilación de datos digitales se refiere a la obtención de datos de personas para conocer sus gustos, intereses y preferencias.
[3] La microsegmentación se refiere a la clasificación de personas en función de sus perfiles digitales con fines comerciales o cualquier otro.
[4] Un zettabyte corresponde a 1021 bytes.
A nivel mundial han existido ejemplos célebres de filtración masiva de datos personales de usuarios en internet:
- Caso Cabmbridge Anlaytica. En materia político-electoral tuvo lugar el célebre caso de la firma de análisis de datos Cambridge Analytica, la cual usó la información personal de alrededor de ochenta y siete millones de personas para perfilarlos digitalmente y enviarles mensajes políticos personalizados a los votantes indecisos durante las elecciones de Estados Unidos y el Brexit(Westby, 2019).
- Caso Strava. La aplicación de senderismo Strava fue otro caso célebre de filtración de datos que surgió de los mapeos de calor de los usuarios que realizaba la aplicación al ser usada. Dichos mapeos de calor mostraron involuntariamente los puntos en que se encontraban bases del ejercito de Estados Unidos, poniendo en riesgo la integridad de los miembros del ejercito que se encontraban en esas bases y vulnerando con ello la secrecía en un asunto de seguridad nacional (Pérez-Peña, 2018)
- Caso IBM. La compañía IBM utilizó medio millón de fotografías de usuarios de una plataforma popular para entrenar a su software de reconocimiento facial, sin el consentimiento o siquiera conocimiento de las personas fotografiadas(Sullivan, 2023).
- Gobierno de Hong Kong. También han existido violaciones a la privacidad por parte de gobiernos a partir del uso de la IA –no únicamente compañías–. En 2019 tuvieron lugar protestas masivas en Hong Kong, dentro de las cuales se observó que el gobierno utilizaba cámaras instaladas en los llamados “puestos inteligentes”, las cuales poseían reconocimiento facial. Además, los manifestantes eran rastreados a partir de tarjetas de transporte público. Lo anterior, motivó que los manifestantes destruyeran dichos puestos inteligentes, usaran máscaras, maquillaje, hablaran en código o compraran boletos sencillos de metro para evitar ser identificados(CNN en Español, 2019).
A estos casos de compañías formalmente constituidas hay que añadir el peligro que implica que los datos personales de los usuarios de internet caigan en manos de modelos de IA con fines antisociales que sirven a criminales como hackers no éticos o ciberdelincuentes que operan al amparo del anonimato, poniendo en riesgo nuestra integridad y nuestro patrimonio. Lo anterior, implica un riesgo aún mayor que ya escapa de la sola protección de datos y puede tener incidencia penal.
Intentos de regulación de la IA: los casos de la Unión Europea y Estados Unidos
A lo largo de los últimos tres años, se han emitido importantes declaraciones sobre principios éticos de la IA o algunas directrices generales como:
- La Declaración Universal sobre la Ética de la Inteligencia Artificial adoptada el 25 de noviembre de 2021
- La Orden Ejecutiva sobre el desarrollo y uso confiable de la IA del presidente de Estados Unidos, Joe Biden, la cual fue expedida el 30 de octubre de 2023.
- La declaración de Bletchley Park, que fue expedida con motivo de la AI safety Summit, llevada a cabo los días 1 y 2 de noviembre del 2023 en Reino Unido.
Dichos esfuerzos fueron fundamentales para establecer las bases y formas de abordar el uso seguro de la IA. Este año, dichos esfuerzos comienzan a tomar concreción jurídica con la presentación de iniciativas de ley en diversas partes del mundo que buscan regular, de manera específica y exhaustiva, el uso de la IA[1]. Sin duda, Estados Unidos y Europa se han posicionado como punteros en esta tarea.
El Consejo Europeo ha alcanzado un acuerdo político que ha impulsado la Ley Europea de Inteligencia Artificial, la cual propone clasificar a la IA en cuatro niveles según los riesgos que implica para el derecho a la privacidad y, es en función de dicha clasificación, que se detallan normas mas o menos estrictas según el caso. (Comisión Europea, 2024):
- La IA de riesgo inaceptable, la cual estará prohibida como los patrones oscuros, la manipulación o la identificación biométrica para la aplicación de la ley.
- La IA de riesgo alto que van a estar sujetas a ciertos requisitos establecidos en la ley comunitaria para poder acceder al mercado de la Unión Europea (UE) –como el uso de IA en el sector educativo, laboral, de infraestructura de servicios públicos, etc…–
- La de riesgo limitado como los chatbots o las noticias deepfake
- Las de riesgo mínimo
Este instrumento jurídico establece que cualquier tecnología o herramienta que haga uso o funcione con IA debe especificarlo a la población, a fin de que la ciudadanía sea consciente de que está teniendo contacto con ella. Asimismo, se establece que todo contenido creado a partir de IA de tipo generativa debe especificarlo para evitar cualquier manipulación o distorsión de la realidad.
Estos avances regulatorios han venido aparejados, además, de la creación de nuevos organismos especializados que serán garantes en la materia. Recientemente, el 21 de febrero de este año para ser precisos, la Comisión Europea creó la Oficina Europea de Inteligencia Artificial para supervisar la aplicación y cumplimiento de la futura ley que entrará en vigor en toda la UE en 2026 (Europeo, 2024). Asimismo, dicha oficina también velara por el cumplimiento del Reglamento General de Protección de Datos de la Unión Europea, mismo que ya contiene algunas normas que son aplicables a la IA.
En Estados Unidos la mayor actividad legislativa en los últimos tiempos la ha tenido el estado de California, lo cual resulta esperable dada la importante presencia de compañías dedicadas al sector tecnológico que están ingeniando y experimentando cotidianamente con IA –ubicadas, principalmente, en la Bahía de San Francisco–. La Ley de Privacidad del Consumidor del Estado de California posee ciertas normas que han resultado aplicables a la IA por analogía, sin embargo, la Agencia para la Privacidad de dicho estado, ya posee un borrador para regular de manera especifica aquellos aspectos que son propios de la llamada tecnología de toma de decisiones automatizadas como se le conoce técnicamente a la IA.
Este borrador propone que los usuarios sean capaces de negar a las compañías tecnológicas el procesamiento de sus datos mediante algoritmos de la IA con el fin de garantizar el consentimiento informado y, por consiguiente, velar por el derecho a su privacidad. En el Congreso de California, dos senadores, han propuesto interesantes iniciativas al respecto:
[1] Esta iniciativa establece que el Departamento de Tecnología del estado debe establecer medidas de seguridad, privacidad y estándares de no discriminación en relación con la contratación de servicios de inteligencia. También dispone que a partir del 1 de agosto de 2025 ningún contrato relacionado con IA y el sector público si el proveedor de servicios tecnológicos no cumple con los estándares de seguridad, privacidad y no discriminación previamente emitidos por el Departamento de Tecnología.
La primera de ellas es la ley del senado número CASB-896, propuesta por el senador californiano Bill Dodd, la cual propone en términos generales establecer lineamientos de acción para que las agencias del estado notifiquen a los usuarios cuando se encuentran interactuando con IA. Asimismo, obliga al sector privado a adherirse a un cúmulo de derechos y garantías, además de establecer un plan educativo para incluir en los planes de estudios o capacitación programas que aumenten las competencias laborales en torno al uso de esta tecnología (Dodd, 2024).
En segundo lugar, existen otras dos iniciativas presentadas por el senador Alex Padilla –iniciativas CASB-892 y 893 respectivamente–. La iniciativa 892 busca adicionar un artículo al código de contrataciones públicas para prohibir que el gobierno del estado de california contrate cualquier servicio que involucre uso de IA que no se ajuste a los estándares de responsabilidad y no discriminación que ya están siendo emitidos por diversas agencias del estado (Padilla, 2024 ).[1]
En cuanto a la iniciativa 893 establece la creación de un centro de investigación estatal enfocado de manera específica en la IA. En lo particular, esta iniciativa establece que la agencia de operación gubernamental, la Oficina del Gobernador para asuntos Económicos y el Departamento de Tecnología deben colaborar para la creación de dicho centro, el cual tendrá los siguientes fines (Padilla, California Senate Bill 893, 2024):
- Incrementar el acceso del gobierno a la data, al mismo tiempo que se crean mecanismos para proteger el derecho a la privacidad de la ciudadanía en el uso de la IA. En este punto, el centro de investigación debe privilegiar la seguridad al limitar el acceso de la data en función de los propósitos.
- Reducir barreras de todo tipo para el acceso y desarrollo de herramientas con IA
- Estimular la creación de herramientas con IA para beneficio público
- Garantizar el desarrollo de herramientas con IA que sean transparentes, equitativas y sobre las que haya un riguroso régimen de responsabilidades
- Proveer educación y capacitación en torno al correcto manejo de la data y aplicaciones con IA que sean benéficas para el público.
Todas estas iniciativas deberán ser estudiadas y monitoreadas, pues sus resultados pueden constituir una guía en otras latitudes, incluida Latinoamérica. En México ha sido el Senado de la República quien mayor atención ha prestado al fenómeno de la IA. Hasta noviembre de 2023 existían tan solo en la Cámara alta 19 iniciativas en distintos campos que guardaban relación con la IA (Riquelme, 2023).
De igual forma, el año pasado, el Senado puso en marcha el grupo interdisciplinario denominado Alianza Nacional de Inteligencia Artificial (ANIA) en conjunto con la UNESCO para analizar desde diferentes ópticas los problemas y posibles soluciones en torno a la IA (Senado de la República, 2023).
PET y neuroderechos como posibles soluciones
Ante todo, esto es necesario preguntarnos, ¿Qué puede hacerse para afrontar los problemas que puede generar la IA, principalmente en perjuicio del derecho a la privacidad?
Una de las alternativas actuales para enfrentar la posible vulneración a la protección de datos personales son las llamadas Técnicas de Mejora de la Privacidad aplicadas específicamente a la IA (conocidas abreviadamente como PET en inglés), las cuales buscan minimizar la cantidad de datos que la IA puede colectar de los usuarios.
Existen un sinfín de estas técnicas para diferentes fines, pero las más relevantes para contrarrestar cualquier efecto pernicioso de la IA en la privacidad son principalmente tres: las tácticas de protección a partir de algoritmos criptográficos; existen también tácticas de desidentificación que le brindan a la IA información aleatoria de tal forma que no pueda establecer un perfil certero de la persona usuaria. Por último, hay tácticas de colaboración que buscan compartir el conocimiento o datos con la IA, pero ocultando la fuente de dónde han sido extraídas (González Marañón, 2023).
Asimismo, a nivel mundial se está observando la conjunción entre neurociencia –la rama de la ciencia que estudia integralmente el sistema nervioso– y la Inteligencia Artificial. Esa conjunción es necesaria para crear una Inteligencia Artificial más afinada y precisa, pues recordemos que la IA busca imitar el pensamiento y actuar humano que surge del cerebro. La neurotecnología está avanzando también a pasos agigantados como una conjunción entre lo humano y la IA.
En enero de 2024, se informó en redes sociales que la compañía Neuralink –propiedad de Elon Musk– había insertado exitosamente un chip denominado Thelepathy, el cual se implanta con el fin de ayudar a restablecer algunas funciones del cerebro que han quedado gravemente dañadas por infartos o parálisis cerebral (Clarín, 2024).
Estos avances deben llevarnos a reflexionar sobre la neuroprivacidad y los neuroderechos en general, como nuevas garantías que protejan nuestro cerebro y nuestros pensamientos –evitando que la tecnología pueda llegar a controlarnos o influir en nuestras acciones desde nuestro propio cerebro–. Chile ha sido el país pionero en la regulación de los neuroderechos, al haber sido el primer país en consagrar la necesidad de proteger el cerebro a nivel constitucional (Constitución de Chile, 2024).[1] Asimismo, España ha emitido una carta de derechos digitales que, aunque posea únicamente alcances declarativos, es un instrumento orientador muy valioso en la materia como propuesta evolutiva a varios derechos fundamentales ya consagrados. En el se establecen derechos ante la IA[2] y las neurotecnologías (Gobierno de España, 2021)[3].
[1] Estableciendo textualmente en el artículo 19 que: “El desarrollo científico y tecnológico estará al servicio de las personas y se llevará a cabo con respeto a la vida y a la integridad física y psíquica. La ley regulará los requisitos, condiciones y restricciones para su utilización en las personas, debiendo resguardar especialmente la actividad cerebral, así como la información proveniente de ella”;
[2] En donde se establece la necesidad de que la IA siga un enfoque centrado en la dignidad humana: la no discriminación, la transparencia y la accesibilidad, así como el derecho a impugnar las decisiones automatizadas.
[3] Que establecen el derecho a la identidad, a la autodeterminación individual, la integridad física y psíquica, así como la no discriminación y la preservación de la dignidad humana.
Conclusiones
La pregunta relevante ante los cambios que la actualidad promete es: ¿resulta necesaria una ley específica que regule la IA o únicamente una reforma que actualice aquellos instrumentos normativos que sean necesarios para regular esta tecnología? Por otro lado, ¿nuestra Ley General de Protección de Datos Personales es aplicable a los nuevos fenómenos que plantea la IA de manera análoga?
En este sentido, es claro que todos los órganos garantes de la transparencia en el país, principalmente el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI) jugarán un papel sumamente relevante como intérpretes en la materia para dar vigencia o aplicabilidad a nuestro orden jurídico actual a fin de abordar los problemas que el avance tecnológico represente.
Las distintas áreas de transparencia de los sujetos obligados como el Tribunal Electoral del Poder Judicial de la Federación (TEPJF) –área que tengo comisionada dentro del Tribunal– deberemos enfrentarnos en un futuro cercano a esta nueva realidad y proteger en el ámbito de nuestras competencias el derecho a la privacidad, observando lo que dispone nuestra ley general y las interpretaciones que de ella haga el INAI en cada momento para abordar estos problemas.
La actividad legislativa intensa que se está llevando a cabo en el Congreso de la Unión al respecto, particularmente en el Senado de la República, podrá brindar, de igual forma, importantes mandatos legislativos para que todas las autoridades actuemos en este sentido.
La IA es una tecnología que posee un sinfín de beneficios que no admiten pausa ni retroceso; corresponde a las autoridades actuar de forma ágil y decisiva para proteger los valores básicos sobre los que se sostiene nuestra integridad personal y convivencia social, al mismo tiempo que permitimos el aprovechamiento de todas esas ventajas tecnológicas que estas nuevas invenciones nos ofrecen.
Bibliografía
Banco Mundial. (2022). Personas que usan Internet (% de la población). Obtenido de Bnaco Mundial: https://datos.bancomundial.org/indicator/IT.NET.USER.ZS?end=2022&start=1960
Clarín. (30 de enero de 2024). Cómo funciona Telepathy, el Chip Cerebral que una empresa de Elon Musk implantó en un Humano. Obtenido de Youtube : https://www.youtube.com/watch?v=eMNFoqCSEXU
CNN en Español. (26 de agosto de 2019). Esto hacen los manifestantes en Hong Kong para evitar la vigilancia del gobierno. Obtenido de YouTube: https://www.youtube.com/watch?v=ZO4sUZPVo9E
Comisión Europea. (6 de marzo de 2024). AI Act. Obtenido de European Comission: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
Constitución de Chile. (22 de enero de 2024). Constiución Política de la República de Chile. Obtenido de Cámara de diputadas y diputados de Chile: chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://www.camara.cl/camara/doc/leyes_normas/constitucion.pdf
Dodd, B. (3 de Enero de 2024). Sen. Dodd Introduces AI Accountability Act . Obtenido de California: senator Bill Dodd, senate district 3: https://sd03.senate.ca.gov/news/20240103-sen-dodd-introduces-california-ai-accountability-act
Europeo, C. (2024). Timeline-Artificial Inteligence. Obtenido de Consejo Europeo.
Future of life. (22 de marzo de 2023). Pause Giant AI Experiments: An Open Letter. Obtenido de Future of Life: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Georgieva, K. (14 de Enero de 2024). AI Will Transform the Global Economy. Lets Make Sure it Benefits Humanity . Obtenido de IMF Blog: https://www.imf.org/en/Blogs/Articles/2024/01/14/ai-will-transform-the-global-economy-lets-make-sure-it-benefits-humanity
Gobierno de España. (2021). Derechos digitales. Obtenido de La Moncloa.
González Marañón, Á. (2 de octubre de 2023). Cómo proteger la privacidad en un mundo dominado por la IA. Obtenido de International Business School : https://eiposgrados.com/blog-ciberseguridad/proteger-privacidad-ia/
Graham, C. (26 de Junio de 2022). Robot Performs first Laparoscopic Surgury Without Human Help. Obtenido de John Hopkins University: https://hub.jhu.edu/2022/01/26/star-robot-performs-intestinal-surgery/
IBM. (16 de diciembre de 2020). 5 Things to Know about IBMs New Tap Sorage World Record. Obtenido de IBM research: https://newsroom.ibm.com/IBM-research?item=32682#:~:text=Currently%20we%20produce%202.5%20quintillion,cloud%20as%20in%20data%20centers.
IBM. (2023). ¿Qué es el machine learning? Obtenido de IBM: https://www.ibm.com/mx-es/topics/machine-learning
López-León, R. (2018). Revolución. Del Homo sapiens al Homo digitalis. Investigacion y ciencia de la Universidad Autónoma de Aguascalientes, 90-92.
McCartney, J. (7 de junio de 2023). AI is Poised to «Revolutionize» Surgury. Obtenido de American College of Surgeons: https://www.facs.org/for-medical-professionals/news-publications/news-and-articles/bulletin/2023/june-2023-volume-108-issue-6/ai-is-poised-to-revolutionize-surgery/
Padilla, A. (3 de Enero de 2024 ). SB-892 Public contracts: artificial Intelligence services: safety, pravicy, and nondiscrimation standards. Obtenido de California Legislative Information: https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB892
Padilla, A. (3 de enero de 2024). California Senate Bill 893. Obtenido de LegiScan: https://legiscan.com/CA/text/SB893/id/2868453#:~:text=California%20Senate%20Bill%20893&text=Bill%20Titl
Pérez-Peña, R. (29 de Enero de 2018). Strava Fitness App Can Reveal Military Sites, Analysts Say. Obtenido de The New York Times : https://www.nytimes.com/2018/01/29/world/middleeast/strava-heat-map.html
Petroc, T. (16 de Noviembre de 2024). Volume of Information created, captured, copied ando consume worldwide from 2010 to 2020 with forecasts from 2021 to 2025. Obtenido de Statista : https://www.statista.com/statistics/871513/worldwide-data-created/
Riquelme, R. (25 de noviembre de 2023). Países aceleran regulación de Inteligencia Artificial y México es uno de ellos. Obtenido de El Economista : https://www.eleconomista.com.mx/tecnologia/Paises-aceleran-regulacion-de-Inteligencia-Artificial-y-Mexico-es-uno-de-ellos-20231125-0024.html
Senado de la República. (2 de Agosto de 2023). Analizan en el senado modelo para regular la Inteligencia Artificial. Obtenido de Coordinación de Comunicación Social: https://comunicacionsocial.senado.gob.mx/informacion/comunicados/6418-analizan-en-el-senado-modelo-para-regular-inteligencia-artificial
Sullivan, M. (1 de diciembre de 2023). Examining Privacy Risks in AI systems . Obtenido de Trascend : https://transcend.io/blog/ai-and-privacy
University of Sunderland. (30 de Noviembre de 2023). What are the benefits of AI? Obtenido de University of Sunderland: https://www.sunderland.ac.uk/student-experience/explore/computer-science/ai-benefits/
Westby, J. (24 de Julio de 2019). «El gran Hackeo»: Cambridge Analytica es sólo la punta del iceberg. Obtenido de Amnistía Internacional : https://www.amnesty.org/es/latest/news/2019/07/the-great-hack-facebook-cambridge-analytica/