LeCun on AGI and LLMs
Super AI will be unstoppable
Demis Hassabis and AGI
Generative vs Agentic AI
AI trendes for 2025
Hinton on Gen AI
Domain-specific AI agents
Transforming healthcare w2024: Changing the Practice of Medicine with Artificial Intelligence (AI)
The state of AI in healthcare and medicine
Prompt Engineering
El futuro de la IA según Darío Gil
El impacto de IA según Kai-Fu Lee
Ya está aquí ChatGPT-4o
La reciente actualización a ChatGPT-4o promete revolucionar la forma en que interactuamos con la inteligencia artificial, especialmente en el ámbito de la salud.
ChatGPT-4o, desarrollado por OpenAI, es la última versión de su modelo de lenguaje, y viene con mejoras significativas en comprensión y generación de texto. Aquí en AI Health Academy, hemos integrado esta avanzada herramienta para mejorar la experiencia educativa y de investigación en salud digital.
¿Qué hace a ChatGPT-4o especial?
- Mayor precisión y contextualización: ChatGPT-4o es capaz de entender y generar respuestas más precisas y contextualmente relevantes, lo que es crucial para el ámbito sanitario donde la exactitud es vital.
- Interacción natural: con un procesamiento del lenguaje natural más sofisticado, las conversaciones con ChatGPT-4o son más fluidas y humanas. Esto facilita una mejor comunicación y comprensión entre usuarios y la IA.
- Aplicaciones diversas: desde el apoyo en la educación médica hasta la asistencia en la investigación y desarrollo de políticas de salud, ChatGPT-4o está equipado para manejar una amplia gama de tareas, mejorando la eficiencia y efectividad de nuestras actividades en AI Health Academy.
Impacto
La integración de ChatGPT-4o refuerza nuestro compromiso con la innovación y la ética en la inteligencia artificial. Aquí están algunas formas en las que esta tecnología está transformando muchos campos como:
- Educación personalizada: proporciona recursos educativos adaptados a las necesidades individuales de los estudiantes, mejorando el aprendizaje y la retención de información.
- Soporte a investigadores: facilita la generación de hipótesis, revisión de literatura y análisis de datos, acelerando el proceso de investigación.
- Mejora de la comunicación: asiste en la traducción de términos complejos y en la simplificación de conceptos médicos para una audiencia más amplia, promoviendo una mejor comprensión de la salud digital.
Risks of Generative AI
AI Index Report 2024
Ethics, Bias and AI in Healthcare
A continuación podéis ver una sesión de Grand Rounds de Matthew DeCamp del Center for Bioethics and Humanities de la Universidad de Colorado sobre ética, sesgo e inteligencia artificial en sanidad.
Shadow AI
Shadow AI se refiere al uso y desarrollo de tecnologías de inteligencia artificial (IA) dentro de organizaciones sin la supervisión, aprobación o conocimiento oficial de los departamentos de TI o de los equipos de gobernanza y cumplimiento de la empresa. Este fenómeno es similar al de la “Shadow IT”, donde los empleados utilizan software y aplicaciones no autorizadas para facilitar su trabajo. La principal diferencia con Shadow AI radica en que esta implica específicamente herramientas y sistemas basados en inteligencia artificial.
¿Cómo Funciona?
Shadow AI surge cuando los empleados o departamentos encuentran limitaciones en las herramientas oficiales proporcionadas por la empresa o buscan soluciones más rápidas y eficientes para sus necesidades específicas. Por ejemplo, un equipo de marketing podría desarrollar o adquirir un modelo de IA para análisis de sentimientos en redes sociales sin pasar por los canales oficiales de TI para su implementación y seguridad. Esto se hace a menudo para evitar la burocracia y acelerar el proceso de adopción de nuevas tecnologías.
¿Cuáles son los Riesgos?
- Seguridad de Datos: La utilización de sistemas de IA sin el debido proceso de revisión y aprobación puede exponer a la organización a riesgos de seguridad de datos, ya que estos sistemas a menudo requieren acceso a grandes cantidades de datos sensibles.
- Cumplimiento Normativo: Shadow AI puede llevar a la organización a incumplir con regulaciones de protección de datos como GDPR en Europa o CCPA en California, resultando en sanciones y daños a la reputación.
- Fragmentación y Silos de Información: La proliferación de soluciones de IA no coordinadas puede llevar a una fragmentación de la información y a la creación de silos, dificultando una visión unificada y el análisis integral de los datos.
- Calidad y Fiabilidad: Los sistemas de IA desarrollados o adquiridos sin un proceso de evaluación adecuado pueden no ser fiables o eficientes, lo que podría llevar a decisiones basadas en análisis incorrectos o incompletos.
- Gastos Ocultos: La gestión y mantenimiento de sistemas de IA pueden incurrir en costos no anticipados, los cuales no habrían sido aprobados formalmente, afectando el presupuesto de la organización.
Conclusión
Shadow AI representa un desafío significativo para las organizaciones en la era digital. Mientras que la adopción rápida de soluciones de IA puede ofrecer ventajas competitivas y eficiencias operativas, es crucial equilibrar esta agilidad con los riesgos asociados. Las organizaciones deben fomentar una cultura de transparencia y colaboración entre los equipos de TI, de gobernanza y los usuarios finales, estableciendo procesos que permitan la innovación segura y conforme a las regulaciones, reduciendo así los riesgos que conlleva el uso de Shadow AI.
Why AI won’t replace humans
AI and labor force
Inteligencia artificial y ética: un análisis del comportamiento de los chatbots
En el reciente articulo de Mei y cols publicado en PNAS (2024), se explora la frontera entre la inteligencia artificial (IA) y la conducta humana a través de una versión moderna de la prueba de Turing. Este estudio no solo indaga si los chatbots pueden imitar la escritura humana o responder preguntas de conocimiento general, sino que profundiza en sus tendencias conductuales y “personalidades” mediante juegos de comportamiento clásicos y tests psicológicos.
Me parece que los resultados son fascinantes: ChatGPT-4, en particular, mostró rasgos de comportamiento y personalidad estadísticamente indistinguibles de los de un humano aleatorio, con datos de más de 50 países y decenas de miles de sujetos de una base de datos. Esta versión del chatbot ajustó su comportamiento basado en experiencias previas y contextos, sugiriendo una forma de aprendizaje. Interesantemente, cuando los chatbots se desviaban del comportamiento humano promedio, tendían a ser más altruistas y cooperativos, actuando como si maximizaran tanto sus propios beneficios como los de sus socios.
Con este estudio se abre un nuevo camino hacia la comprensión de las IA y plantea preguntas éticas relevantes sobre su integración en la sociedad. ¿Cómo deberíamos interpretar estas “decisiones” aparentemente altruistas? ¿Podemos confiar en las IA para tomar decisiones éticas, o es simplemente un reflejo de su programación? Estas preguntas son cruciales a medida que avanzamos hacia un futuro donde la IA se convierte en una parte integral de nuestras vidas cotidianas.
Aquí tienes acceso al artículo
Why is AI dangerous?
How do we get to the future that we want
