Los Verdaderos Peligros De La IA (y Cómo Te Afectan) Podcast By  cover art

Los Verdaderos Peligros De La IA (y Cómo Te Afectan)

Los Verdaderos Peligros De La IA (y Cómo Te Afectan)

Listen for free

View show details

La Inteligencia Artificial avanza más rápido de lo que podemos imaginar. Pero mientras nos deslumbramos con sus beneficios, también empezamos a ver su lado más oscuro y peligroso.En este episodio de Futuro en Construcción, exploramos el lado más preocupante. Porque es una herramienta poderosa, capaz de transformar nuestra vida personal y laboral. Pero también puede volverse un riesgo grande. Y lo peor que podemos hacer frente a eso es no entender los peligros o mirar para otro lado.Este video no es para asustarte, sino para ayudarte a pensar. ¿Qué riesgos reales existen, cómo mitigarlos, y qué decisiones urgentes necesitamos tomar como sociedad… y como individuos?🔍 ¿Qué vas a descubrir en este episodio?- Qué peligros reales existen si seguimos avanzando sin límites- Cómo la IA puede manipular, reemplazar o sesgar nuestras ideas sin que lo notemos- Cuáles son los debates éticos clave de este momento- Por qué necesitamos más conciencia, no más ceguera optimistaEste episodio es una invitación a mirar más allá del entusiasmo…y empezar a construir un futuro más equilibrado.▀▀▀CAPÍTULOS0:00 Introducción1:12 Tu nuevo mejor amigo4:24 La era de la realidad falsificada7:51 La cámara de eco del delirio11:11 La creatividad sintética14:13 Máquinas que piensan, ¿máquinas que engañan?17:37 Lo que está en juego20:26 Bonus Track▀▀▀CRÉDITOSIdea, producción general y guiones: Santiago BilinkisInvestigación y escritura: Juan Morris y Santiago BilinkisRealización: La EmbajadaEdición: Sebastián Vázquez Diseño gráfico: Chini SpanoMusica de introducción: Gustavo Ariel PomeranecDiseño de miniaturas y operaciones: Valentino RossiEdición de shorts: Zaple TechAsistencia general: Florencia Schmidt▀▀▀Referencias por sección (en inglés)Introducción•⁠ ⁠Percepción pública sobre IA: - https://www.pewresearch.org/short-reads/2023/11/21/what-the-data-says-about-americans-views-of-artificial-intelligence/Parte 1 - Tu nuevo mejor amigo•⁠ ⁠Usos más comunes de IA en 2025 (Harvard Business Review): - https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025•⁠ ⁠Mark Zuckerberg sobre amigos promedio: - https://www.404media.co/mark-zuckerberg-ai-chatbot-friends-interview-podcast/•⁠ ⁠Estadísticas de apps de compañía virtual: - https://link.springer.com/article/10.1007/s00146-025-02318-6•⁠ ⁠OpenAI moderando adulación de ChatGPT: - https://www.macrumors.com/2025/04/30/chatgpt-excessive-flattery-openai-roll-back-update/Parte 2 - La era de la realidad falsificada•⁠ ⁠Deepfake de Claudia Sheinbaum: - https://mexiconewsdaily.com/politics/video-circulating-of-claudia-sheinbaum-is-apparently-a-deepfake/•⁠ ⁠Experimento Universidad de Zúrich en Reddit: - https://www.washingtonpost.com/technology/2025/04/30/reddit-ai-bot-university-zurich/Parte 3 - La cámara de eco del delirio - https://apnews.com/article/uk-crossbow-plot-queen-elizabeth-man-sentenced-604091dcd5a42f8d99ebd13e98f5720f - https://www.euronews.com/next/2023/03/31/man-ends-his-life-after-an-ai-chatbot-encouraged-him-to-sacrifice-himself-to-stop-climate-Parte 4 - La creatividad sintética•⁠ ⁠Investigación sobre poesía: - https://www.nature.com/articles/s41598-024-76900-1Parte 5 - Máquinas que piensan, ¿máquinas que engañan?•⁠ ⁠System Card Anthropic: - https://www.anthropic.com/research/agentic-misalignment•⁠ ⁠Paper AI Sandbagging (fuente primaria): - https://arxiv.org/html/2406.07358v2Parte Final•⁠ ⁠Geoffrey Hinton sobre riesgos de IA: - https://www.technologyreview.com/2023/05/02/1072528/geoffrey-hinton-google-why-scared-ai/•⁠ ⁠Yoshua Bengio - Riesgos catastróficos (fuente primaria): - https://yoshuabengio.org/2023/06/24/faq-on-catastrophic-ai-risks/Bonus Track•⁠ ⁠Programa de Model Welfare de Anthropic: - https://www.datastudios.org/post/could-claude-be-conscious-anthropic-opens-new-frontiers-in-ai-ethics

No reviews yet