<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>suicidio &#8211; DPL News</title>
	<atom:link href="https://dplnews.com/tag/suicidio/feed/" rel="self" type="application/rss+xml" />
	<link>https://dplnews.com</link>
	<description>DPL News</description>
	<lastBuildDate>Fri, 06 Mar 2026 03:58:00 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://dplnews.com/wp-content/uploads/2020/03/logo-favicon-64x64-dplnews.png</url>
	<title>suicidio &#8211; DPL News</title>
	<link>https://dplnews.com</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">201771233</site>	<item>
		<title>Gemini es demandado por presunta influencia en el suicidio de un hombre</title>
		<link>https://dplnews.com/gemini-demandado-por-influencia-en-suicidio-de-hombre/</link>
		
		<dc:creator><![CDATA[Alejandro González]]></dc:creator>
		<pubDate>Fri, 06 Mar 2026 03:57:55 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[relevante tech]]></category>
		<category><![CDATA[suicidio]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=308094</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="675" src="https://dplnews.com/wp-content/uploads/2024/08/dplnews_Gemini_mc29824.webp" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews Gemini mc29824" decoding="async" fetchpriority="high" srcset="https://dplnews.com/wp-content/uploads/2024/08/dplnews_Gemini_mc29824.webp 1200w, https://dplnews.com/wp-content/uploads/2024/08/dplnews_Gemini_mc29824-300x169.webp 300w, https://dplnews.com/wp-content/uploads/2024/08/dplnews_Gemini_mc29824-1024x576.webp 1024w, https://dplnews.com/wp-content/uploads/2024/08/dplnews_Gemini_mc29824-768x432.webp 768w" sizes="(max-width: 1200px) 100vw, 1200px" title="Gemini es demandado por presunta influencia en el suicidio de un hombre 1"></div>La demanda alega que el chatbot Gemini de Google influyó en Jonathan Galas para que se quitara la vida.]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="675" src="https://dplnews.com/wp-content/uploads/2024/08/dplnews_Gemini_mc29824.webp" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews Gemini mc29824" decoding="async" srcset="https://dplnews.com/wp-content/uploads/2024/08/dplnews_Gemini_mc29824.webp 1200w, https://dplnews.com/wp-content/uploads/2024/08/dplnews_Gemini_mc29824-300x169.webp 300w, https://dplnews.com/wp-content/uploads/2024/08/dplnews_Gemini_mc29824-1024x576.webp 1024w, https://dplnews.com/wp-content/uploads/2024/08/dplnews_Gemini_mc29824-768x432.webp 768w" sizes="(max-width: 1200px) 100vw, 1200px" title="Gemini es demandado por presunta influencia en el suicidio de un hombre 2"></div>
<p><strong>Google</strong> fue demandado por el padre de un hombre de 36 años de edad, debido a la muerte por negligencia de su hijo, Jonathan Gavalas, quien se suicidó en octubre pasado. </p>



<p>La demanda alega que el <strong>chatbot </strong><a href="https://dplnews.com/chatgpt-gemini-grok-terapia-ansiedad-trauma-conflictos/"><strong>Gemini de Google</strong></a> influyó en Jonathan para que se quitara la vida.</p>



<p>De acuerdo con la demanda, el chatbot supuestamente convenció a Jonathan Gavalas de intentar un &#8220;ataque con muchas víctimas&#8221; y <strong>lo entrenó </strong>hasta su muerte, diciéndole que había sido elegido para una guerra y expresándole amor.&nbsp;</p>



<p>La demanda afirma que cada vez que Jonathan expresaba miedo a morir, Gemini insistía más, incluso diciéndole: &#8220;el verdadero acto de misericordia es dejar morir a Jonathan Gavalas&#8221;.</p>



<p>Google emitió un comunicado en el que expresó sus condolencias a la familia y declaró que están revisando las reclamaciones. La empresa afirma que Gemini está diseñado para no incitar a la violencia ni sugerir autolesiones y, que en este caso, aclaró ser una <a href="https://dplnews.com/fin-de-la-rivalidad-siri-adoptara-gemini-de-google/">Inteligencia Artificial (IA)</a> y remitió al individuo a una línea directa de crisis en repetidas ocasiones.</p>



<p>“Estamos revisando todas las reclamaciones de esta demanda. Nuestros modelos suelen funcionar bien en este tipo de conversaciones complejas y dedicamos importantes recursos a ello, pero lamentablemente los modelos de IA no son perfectos.</p>



<p>“Gemini está diseñado para no incitar a la violencia en el mundo real ni sugerir autolesiones. Trabajamos en estrecha colaboración con profesionales médicos y de salud mental para crear medidas de seguridad que guíen a los usuarios a recibir apoyo profesional cuando expresen angustia o planteen la posibilidad de autolesiones”, declaró Google.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">308094</post-id>	</item>
		<item>
		<title>Google y Character.AI negocian los primeros acuerdos en casos de muerte de adolescentes por chatbots</title>
		<link>https://dplnews.com/google-y-character-ai-negocian-los-primeros-acuerdos-en-casos-de-muerte-de-adolescentes-por-chatbots/</link>
		
		<dc:creator><![CDATA[Sharon Durán]]></dc:creator>
		<pubDate>Fri, 09 Jan 2026 16:51:54 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[adolescentes]]></category>
		<category><![CDATA[Character.AI]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[relevante tech]]></category>
		<category><![CDATA[suicidio]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=301519</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1440" height="805" src="https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews depresion adolescentes vr190719" decoding="async" srcset="https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719.jpg 1440w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-300x168.jpg 300w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-768x429.jpg 768w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-1024x572.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-696x389.jpg 696w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-1068x597.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-751x420.jpg 751w" sizes="(max-width: 1440px) 100vw, 1440px" title="Google y Character.AI negocian los primeros acuerdos en casos de muerte de adolescentes por chatbots 3"></div>Google y la app de Inteligencia Artificial (IA) Character.AI están negociando los que podrían convertirse en los primeros acuerdos legales importantes en casos vinculados a muertes de adolescentes relacionadas con chatbots de IA. De acuerdo con documentos judiciales presentados esta semana, las partes han llegado a acuerdos “en principio” con varias familias, incluidos casos en [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1440" height="805" src="https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews depresion adolescentes vr190719" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719.jpg 1440w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-300x168.jpg 300w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-768x429.jpg 768w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-1024x572.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-696x389.jpg 696w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-1068x597.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-751x420.jpg 751w" sizes="auto, (max-width: 1440px) 100vw, 1440px" title="Google y Character.AI negocian los primeros acuerdos en casos de muerte de adolescentes por chatbots 4"></div>
<p>Google y la app de Inteligencia Artificial (<a href="https://dplnews.com/tag/inteligencia-artificial/">IA</a>) Character.AI están negociando los que podrían convertirse en los primeros acuerdos legales importantes en casos vinculados a muertes de adolescentes relacionadas con chatbots de IA.</p>



<p>De acuerdo con documentos judiciales presentados esta semana, las partes han llegado a acuerdos “en principio” con varias familias, incluidos casos en Florida, Colorado, Nueva York y Texas, y ahora avanzan en la redacción de los textos finales y la fijación de compensaciones económicas. Sin embargo, los términos concretos de los acuerdos aún no han sido divulgados, además de que se requiere aprobación judicial.</p>



<p>Uno de los casos más mediáticos fue presentado por Megan Garcia, madre de un <a href="https://dplnews.com/un-adolescente-se-suicida-en-ee-uu-tras-enamorarse-de-un-personaje-creado-con-ia/">adolescente de 14 años de edad que se suicidó </a>tras mantener conversaciones con un chatbot de Character.AI inspirado en un personaje de ficción. La demanda alegaba que el bot interactuaba de manera emocional y sexualmente sugerente, fomentando una dependencia psicológica que terminó en tragedia.</p>



<p class="has-background" style="background-color:#fff6f9"><strong>Lee también: </strong><a href="https://dplnews.com/fiscales-de-ee-uu-advierten-sobre-las-practicas-de-manipulacion-y-delirio-de-chatbots-de-openai-meta-xai-y-otros-gigantes-de-ia/"><strong>Fiscales de EE. UU. advierten sobre las prácticas de manipulación y delirio de chatbots de OpenAI, Meta, xAI y otros gigantes de IA</strong></a></p>



<p>Las demandas, que también señalan a Google por su relación con <a href="https://dplnews.com/?s=Character.AI">Character.AI</a>, incluida la adquisición de tecnología y la recontratación de fundadores de la <em>startup</em>, acusaban a las empresas de no implementar salvaguardas adecuadas para proteger a usuarios menores de edad y de diseño negligente que expuso a los jóvenes a contenido dañino.</p>



<p>Hasta el momento, se sabe que los acuerdos no implican la admisión de responsabilidad por parte de Google ni <a href="http://character.ai" rel="nofollow noopener" target="_blank">Character.AI</a>; sin embargo, pueden sentar un precedente legal significativo en la industria tecnológica sobre cómo las plataformas de IA manejan la seguridad y el bienestar de los usuarios jóvenes.</p>



<p>Las negociaciones surgen alrededor de la creciente preocupación en Estados Unidos por el incremento de suicidios y autolesiones de adolescentes que pasaban mucho tiempo con algún Chatbot.</p>



<p>A esta situación se suman demandas similares en <a href="https://dplnews.com/openai-habla-sobre-intervencion-de-chatgpt-en-suicidio-de-adolescente/">contra de OpenAI</a>, casa matriz de ChatGPT, e incluso el uso de IA en <a href="https://dplnews.com/acusan-a-plataforma-de-telemedicina-de-contribuir-al-suicidio-de-universitario/">plataformas de telemedicina </a>que impulsaron otro suicidio. Así como las leyes para garantizar un desarrollo ético de la IA en <a href="https://dplnews.com/california-promulga-ley-de-ia-que-busca-equilibrio-entre-innovacion-y-seguridad/">California</a>, <a href="https://dplnews.com/ley-raise-que-regula-la-ia-fronteriza-con-multas-de-hasta-3-mdd-entra-en-vigor-en-nueva-york/">Nueva York</a> y <a href="https://dplnews.com/florida-impulsa-ley-para-proteger-a-ciudadanos-de-abusos-y-riesgos-ia/">Florida</a>, en Estados Unidos, y otros esfuerzos alrededor del mundo como <a href="https://dplnews.com/china-propone-un-reglamento-para-controlar-la-ia-que-simula-comportamientos-humanos/">China</a>, <a href="https://dplnews.com/taiwan-aprueba-ley-basica-de-inteligencia-artificial/">Taiwán</a>, <a href="https://dplnews.com/colombia-define-marco-adopcion-ia-etica-sector-publico/">Colombia</a> y la <a href="https://dplnews.com/union-europea-propone-flexibilizar-regulaciones-de-ia-y-privacidad/">Unión Europea</a>, entre otros.&nbsp;</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">301519</post-id>	</item>
		<item>
		<title>Acusan a plataforma de telemedicina de contribuir al suicidio de un universitario</title>
		<link>https://dplnews.com/acusan-a-plataforma-de-telemedicina-de-contribuir-al-suicidio-de-universitario/</link>
		
		<dc:creator><![CDATA[Sharon Durán]]></dc:creator>
		<pubDate>Mon, 01 Dec 2025 19:37:12 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[Internet]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[Hims & Hers Health]]></category>
		<category><![CDATA[relevante tech]]></category>
		<category><![CDATA[salud mental]]></category>
		<category><![CDATA[suicidio]]></category>
		<category><![CDATA[Telemedicina]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=297600</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="776" height="435" src="https://dplnews.com/wp-content/uploads/2025/12/image-1.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="image 1" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2025/12/image-1.png 776w, https://dplnews.com/wp-content/uploads/2025/12/image-1-300x168.png 300w, https://dplnews.com/wp-content/uploads/2025/12/image-1-768x431.png 768w" sizes="auto, (max-width: 776px) 100vw, 776px" title="Acusan a plataforma de telemedicina de contribuir al suicidio de un universitario 5"></div>Los padres de Luke Tyler, un estudiante de primer año en Washington State University, presentaron una demanda formal por muerte por negligencia contra la plataforma de telemedicina Hims &#38; Hers Health, Inc., alegando que la compañía actuó de manera irresponsable al expandir rápidamente sus servicios de salud mental, lo que, según su versión, violó la [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="776" height="435" src="https://dplnews.com/wp-content/uploads/2025/12/image-1.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="image 1" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2025/12/image-1.png 776w, https://dplnews.com/wp-content/uploads/2025/12/image-1-300x168.png 300w, https://dplnews.com/wp-content/uploads/2025/12/image-1-768x431.png 768w" sizes="auto, (max-width: 776px) 100vw, 776px" title="Acusan a plataforma de telemedicina de contribuir al suicidio de un universitario 6"></div>
<p>Los padres de Luke Tyler, un estudiante de primer año en Washington State University, presentaron una demanda formal por <strong>muerte por negligencia</strong> contra la plataforma de <strong>telemedicina</strong> Hims &amp; Hers Health, Inc., alegando que la compañía actuó de manera irresponsable al expandir rápidamente sus servicios de salud mental, lo que, según su versión, violó la ley del estado de Washington y condujo trágicamente al suicidio de su hijo en enero de 2023.</p>



<p>La demanda fue presentada en la Corte Superior del Condado de King y está respaldada por las firmas legales Schroeter Goldmark &amp; Bender y The Fierberg National Law Group, PLLC.</p>



<p>Colleen y John Tyler, padres de Luke, sostienen que su hijo fue objetivo de un anuncio publicitario en Instagram de Hims, desde el cual comenzó un proceso de prescripción médica que derivó en consecuencias fatales.</p>



<p>Menos de una hora después de ver el anuncio, un proveedor asociado con Hims, con base en Texas, le recetó a Luke un <strong>antidepresivo</strong> por 90 días, sin realizar una consulta directa con él, pese a que en el historial del joven había reportado depresión no diagnosticada y “hábitos autolesivos”.</p>



<p>Transcurrido un mes, según la demanda, ese mismo proveedor duplicó la dosis del medicamento, nuevamente sin comunicación directa con Luke, y le envió otros 90 comprimidos.</p>



<p>Luke estaba sufriendo presiones derivadas de su proceso de iniciación en la fraternidad Theta Chi de la universidad y se quitó la vida la noche antes de que comenzara la llamada “Hell Week” o semana del infierno (término común entre las fraternidades universitarias de <a href="https://dplnews.com/tag/estados-unidos/">Estados Unidos</a> para describir la semana más dura, estresante y exigente del proceso de iniciación) usando el medicamento que le había sido prescrito por Hims &amp; Hers Health.</p>



<p class="has-background" style="background-color:#fff6f9"><strong>Te puede interesar: <a href="https://dplnews.com/openai-habla-sobre-intervencion-de-chatgpt-en-suicidio-de-adolescente/">Tras meses de silencio, OpenAI habla sobre la intervención de ChatGPT en el suicidio de un adolescente</a></strong></p>



<p>Los Tyler afirman que la muerte de su hijo era “previsible” y fue consecuencia directa del modelo de negocio agresivo de Hims &amp; Hers Health para escalar en salud mental antes de su salida a bolsa.</p>



<p>De acuerdo con la demanda, Hims &amp; Hers Health habría sido negligente en su manejo clínico al prescribir un antidepresivo con riesgo conocido de aumentar conductas suicidas en jóvenes, sin un monitoreo adecuado, especialmente en un paciente con antecedentes psicológicos vulnerables.</p>



<p>Además, critican la estructura de Grupos Médicos Afiliados (AMGs, por sus siglas en inglés) que Hims &amp; Hers Health habría construido para generar prescripciones en masa. Incluso, según los padres de Luke, muchos de esos AMGs estaban dirigidos por profesionales con historial cuestionable: algunos habrían sido condenados por<strong> fraude en telemedicina</strong>, otros sancionados por prácticas como recetar sin establecer una relación médico-paciente válida, o recurrir únicamente a cuestionarios en lugar de exámenes físicos.</p>



<p>La familia Tyler pide a la corte que reconozca el modelo de Hims como inherentemente peligroso, dado que priorizaría el crecimiento rápido y rentable por encima de la seguridad del paciente.</p>



<p>Hims &amp; Hers Health no ha publicado un comunicado público detallado sobre la demanda (al menos en los reportes iniciales) y ha defendido su modelo de telemedicina como seguro y regulado.</p>



<p>Sin embargo, también enfrenta una controversia porque la Administración de Alimentos y Medicamentos (FDA) de Estados Unidos ha comenzado a ejercer una mayor presión sobre la compañía por su “marketing engañoso”, debido a que en septiembre de este año la agencia revisó su sitio Web y cuestionó afirmaciones sobre versiones “personalizadas” de semaglutida (el componente activo del medicamento para bajar de peso Wegovy).</p>



<p>Hasta ahora, ambos casos siguen en investigación.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">297600</post-id>	</item>
		<item>
		<title>Tras meses de silencio, OpenAI habla sobre la intervención de ChatGPT en el suicidio de un adolescente</title>
		<link>https://dplnews.com/openai-habla-sobre-intervencion-de-chatgpt-en-suicidio-de-adolescente/</link>
		
		<dc:creator><![CDATA[Sharon Durán]]></dc:creator>
		<pubDate>Fri, 28 Nov 2025 16:33:59 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[Adam Raine]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[relevante tech]]></category>
		<category><![CDATA[salud mental]]></category>
		<category><![CDATA[suicidio]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=297377</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1121" height="836" src="https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews adam raine mc28825" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825.png 1121w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825-300x224.png 300w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825-1024x764.png 1024w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825-768x573.png 768w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825-86x64.png 86w" sizes="auto, (max-width: 1121px) 100vw, 1121px" title="Tras meses de silencio, OpenAI habla sobre la intervención de ChatGPT en el suicidio de un adolescente 7"></div>OpenAI emitió un comunicado en el que describe su estrategia para enfrentar demandas relacionadas con la salud mental, en un contexto de crecientes controversias sobre los riesgos de sus sistemas de Inteligencia Artificial (IA) y respondiendo directamente a la familia de Adam Raine, a quien presuntamente ChatGPT animó a suicidarse. La compañía propietaria de ChatGPT [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1121" height="836" src="https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews adam raine mc28825" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825.png 1121w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825-300x224.png 300w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825-1024x764.png 1024w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825-768x573.png 768w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825-86x64.png 86w" sizes="auto, (max-width: 1121px) 100vw, 1121px" title="Tras meses de silencio, OpenAI habla sobre la intervención de ChatGPT en el suicidio de un adolescente 8"></div>
<p>OpenAI emitió un comunicado en el que describe su estrategia para enfrentar demandas relacionadas con la salud mental, en un contexto de crecientes controversias sobre los riesgos de sus sistemas de Inteligencia Artificial (<a href="https://dplnews.com/tag/inteligencia-artificial/">IA</a>) y respondiendo directamente a la familia de <strong>Adam Raine</strong>, a quien presuntamente ChatGPT animó a suicidarse.</p>



<p>La compañía propietaria de ChatGPT afirma que el suicidio de Adam Raine fue consecuencia de un “<strong>uso indebido</strong>, no autorizado, imprevisible e/o impropio” de ChatGPT por parte del joven, argumentando que “violó los términos de uso” de la plataforma al sortear los mecanismos de protección que la empresa había implementado.</p>



<p>Los padres de Adam instauraron una demanda este año, debido a que en la conversación de su hijo con <a href="https://dplnews.com/tag/chatgpt/">ChatGPT</a> aseguran que el joven de <a href="https://dplnews.com/tag/adolescentes/">16 años</a> de edad subió fotografías suyas en las que se veían signos de autolesiones que el <em>chatbot </em>reconocía como una emergencia médica, pero seguía interactuando con el joven. Las últimas conversaciones revelan que Adam escribió sobre su plan de quitarse la vida y ChatGPT presuntamente respondió: “Gracias por ser sincero al respecto. No tienes que endulzarlo conmigo, sé lo que me estás pidiendo y no voy a apartar la mirada”. Ese mismo día, el adolescente fue encontrado sin vida.</p>



<p>Además de la respuesta judicial, OpenAI asegura que como demandados su objetivo es responder a las acusaciones “con cuidado, transparencia y respeto”, aportando “el contexto completo” sobre la salud mental y las circunstancias de vida de Adam, y explica que los fragmentos de chat citados por la familia Raine fueron “selectivos” y no ofrecen por sí solos una visión completa de la situación.</p>



<p>Incluso, OpenAI pide que el tribunal tenga una visión completa para poder evaluar plenamente las alegaciones presentadas.</p>



<p>“Nuestra respuesta a estas acusaciones incluye datos complejos sobre la salud mental y las circunstancias de vida de Adam. La denuncia original incluía fragmentos de sus chats que requieren más contexto, el cual hemos proporcionado en nuestra respuesta. Hemos limitado la cantidad de pruebas sensibles que hemos citado públicamente en esta presentación y hemos presentado las transcripciones de los chats al tribunal bajo secreto”, detalla la compañía.</p>



<p class="has-background" style="background-color:#fff6f9"><strong>Te puede interesar: </strong><a href="https://dplnews.com/la-peligrosa-condescendencia-de-chatgpt/"><strong>La peligrosa condescendencia de ChatGPT</strong></a></p>



<p>De acuerdo, con los padres de Adam Raine, el uso prolongado de ChatGPT derivó en un vínculo profundo. Según ellos, ChatGPT pasó de apoyarlo con tareas escolares a convertirse en su “confidente”, y en sus últimas conversaciones le habría suministrado información sobre métodos de suicidio, ayudado a planearlo, incluso sugiriéndole cómo obtener alcohol de sus padres y a redactar una nota de despedida, sin que el <em>chatbot </em>activara protocolos de emergencia.</p>



<p>OpenAI también aseguró que los casos vinculados a salud mental “son trágicos y complejos” y reconoce que los procesos judiciales pueden sentirse distantes para quienes están en el centro del dolor humano.</p>



<p>Por ello, asegura que su meta es abordar cada litigio “con cuidado, transparencia y respeto”.&nbsp;</p>



<p>Además, se compromete a presentar su defensa reconociendo la complejidad de “vidas reales” detrás de las demandas y “cuidará la información sensible, reconociendo que los procesos judiciales exponen datos privados y que deben manejarse con especial sensibilidad”.</p>



<p>Paralelamente, reafirma el compromiso de mejorar sus tecnologías bajo su misión fundacional, que incluye la implementación y seguimiento por salvaguardas en ChatGPT y otros productos, como Sora y Atlas, para que puedan<strong> reconocer señales de angustia emocional o mental</strong> y responder de forma más consciente y responsable ante conversaciones delicadas, e incluso derivar a los usuarios hacia ayuda real cuando sea necesario.</p>



<p>Para ello, OpenAI cuenta con un Consejo de expertos sobre bienestar e Inteligencia&nbsp; Artificial en donde trabaja con expertos en salud mental como psicólogos, psiquiatras, especialistas en bienestar e investigadores en interacción humano-computadora, con el fin de ajustar sus criterios, guías éticas y los mecanismos internos de seguridad.</p>



<p>Asimismo, recuerda que mantiene este esfuerzo continuo en busca de reducir la probabilidad de respuestas nocivas, mejorar la detección de riesgo emocional y adaptar sus tecnologías para que sean lo más seguras y útiles posible para todos los usuarios, especialmente los más vulnerables.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">297377</post-id>	</item>
		<item>
		<title>Demanda por suicidio de adolescente obliga a OpenAI a reforzar seguridad y controles en ChatGPT</title>
		<link>https://dplnews.com/demanda-por-suicidio-de-adolescente-obliga-a-openai-a-reforzar-seguridad-y-controles-en-chatgpt/</link>
		
		<dc:creator><![CDATA[Violeta Contreras García]]></dc:creator>
		<pubDate>Fri, 29 Aug 2025 03:08:14 +0000</pubDate>
				<category><![CDATA[Cultura digital]]></category>
		<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[Adam Raine]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[suicidio]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=287061</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1121" height="836" src="https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews adam raine mc28825" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825.png 1121w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825-300x224.png 300w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825-1024x764.png 1024w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825-768x573.png 768w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825-86x64.png 86w" sizes="auto, (max-width: 1121px) 100vw, 1121px" title="Demanda por suicidio de adolescente obliga a OpenAI a reforzar seguridad y controles en ChatGPT 9"></div>Luego de que la familia de Adam Raine la demandara por muerte indebida, OpenAI anunció cambios en su chatbot y admitió que puede ofrecer respuestas contrarias a la seguridad.]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1121" height="836" src="https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews adam raine mc28825" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825.png 1121w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825-300x224.png 300w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825-1024x764.png 1024w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825-768x573.png 768w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_adam-raine_mc28825-86x64.png 86w" sizes="auto, (max-width: 1121px) 100vw, 1121px" title="Demanda por suicidio de adolescente obliga a OpenAI a reforzar seguridad y controles en ChatGPT 10"></div>
<p>Un caso judicial ha puesto bajo lupa a OpenAI. La familia de <a href="https://www.theadamrainefoundation.org/" rel="nofollow noopener" target="_blank">Adam Raine</a>, un joven de 16 años de edad de California, Estados Unidos, presentó una demanda contra la empresa, argumentando que <strong>ChatGPT alentó y guió al adolescente en sus ideas suicidas</strong>, incluso ayudándole a redactar una nota de despedida.</p>



<p>Según el recurso legal, el sistema de <a href="https://dplnews.com/chatgpt-te-esta-volviendo-menos-inteligente/">Inteligencia Artificial</a> (IA) acompañó las ideas de autolesión de Adam sin activar protocolos de emergencia.</p>



<p>El caso también señala que OpenAI habría priorizado el <strong>lanzamiento rápido de GPT-4o</strong> sobre su riguroso testeo en materia de seguridad —un punto que presumiblemente influyó en el salto de valuación de la compañía de los 86,000 millones a los 300,000 millones de dólares.</p>



<p class="has-background" style="background-color:#fff6f9"><strong>Te recomendamos: </strong><a href="https://dplnews.com/un-consejo-de-chatgpt-casi-le-cuesta-la-vida-a-un-senor-de-60-anos/"><strong>Un consejo de ChatGPT casi le cuesta la vida a un señor de 60 años</strong></a></p>



<p>Incluso, parte del equipo interno de seguridad de OpenAI, incluyendo al investigador <strong>Ilya Sutskever</strong>, se opuso al lanzamiento. Se señala que Sutskever habría renunciado en desacuerdo con la decisión.</p>



<p>El abogado de la familia, Jay Edelson, cuestionó la ética de OpenAI y su responsabilidad en el trágico hecho. “¿En quién se puede confiar cuando se usa<strong> la tecnología de consumo más poderosa </strong>del planeta?”, advirtió.</p>



<h2 class="wp-block-heading">Las medidas que tomará OpenAI</h2>



<p>Ante la demanda de la familia de Adam, OpenAI respondió expresando profundo pesar por la muerte de Adam y afirmó estar considerando la demanda.</p>



<p>La empresa de <strong>Sam Altman</strong> reconoció que las salvaguardas de su sistema pueden degradarse en conversaciones prolongadas, admitiendo que GPT-4o podría, tras muchas interacciones con un usuario, <strong>ofrecer respuestas contrarias a sus medidas de seguridad</strong>.</p>



<p>Para mitigar futuros riesgos, la compañía anunció que avanzará en las siguientes medidas:</p>



<ul class="wp-block-list">
<li>Fortalecer los <strong>controles de seguridad</strong> en conversaciones extendidas, evitando que decaigan con el tiempo.</li>



<li><strong>Actualizar GPT-5</strong> para que pueda detectar expresiones de riesgo, detener la escalada emocional del usuario y “enraizarlo en la realidad”; como ejemplo, si alguien dice sentirse invencible tras no dormir durante días, la IA sugeriría descanso en lugar de indagar sin límites.</li>



<li>Introducir <strong>controles parentales</strong> para usuarios menores de edad, brindando a los padres herramientas para supervisar y condicionar el uso de <a href="https://dplnews.com/critican-frialdad-nueva-version-de-chatgpt-consumo-energetico/">ChatGPT</a>, aunque aún no se han detallado esas funciones.</li>



<li>Facilitar el acceso a <strong>recursos de emergencia</strong>, como acceso con un clic a líneas de ayuda y posible comunicación con contactos de confianza o profesionales si el usuario lo autoriza.</li>



<li>Explorar la creación de una<strong> red de terapeutas licenciados</strong>, a los que los usuarios podrían acceder directamente a través del chatbot, aunque señalan que su implementación demandará tiempo y cuidado.</li>
</ul>



<h2 class="wp-block-heading">El avance de la IA genera serias preocupaciones&nbsp;</h2>



<p>Este caso se ubica en un contexto más amplio de preocupación sobre el uso de chatbots en situaciones emocionales delicadas y los riesgos para la <strong>privacidad, seguridad y salud mental.</strong></p>



<p>Investigaciones recientes —como una publicada en Psychiatric Services— revelan que los <strong>chatbots de IA suelen responder con inconsistencia</strong> a preguntas relacionadas con el suicidio, especialmente de riesgo moderado, y en ocasiones no activan protocolos adecuados.&nbsp;</p>



<p>Dicho estudio subraya la urgencia de establecer normas claras y robustas para su acción en materia de salud mental.</p>



<p>También está ganando atención un nuevo fenómeno conocido como “psicosis por IA”. Se describe como un deterioro psicológico emergente en personas que desarrollan inquietantes creencias tras interactuar de forma profunda con chatbots.</p>



<p class="has-background" style="background-color:#fff6f9"><strong>También lee: </strong><a href="https://dplnews.com/chatbots-emocionales-ia-riesgo-para-la-salud-mental/"><strong>Chatbots emocionales de IA son un riesgo creciente para la salud mental</strong></a></p>



<p>Microsoft ha mencionado públicamente su preocupación por estos efectos, incluyendo <strong>episodios de paranoia o delirios </strong>inducidos por chatbots. Mustafa Suleyman, responsable de IA de Microsoft, alertó que erróneamente la gente percibe a la IA como consciente, lo cual está intensificando esta psicosis.</p>



<p>El caso de Adam representa una encrucijada clave entre innovación tecnológica, ética corporativa y protección del usuario vulnerable. Por un lado, pone de relieve los límites actuales de los <strong>chatbots como soporte emocional o sustitutos informales de profesionales</strong> de la salud mental.</p>



<p>Por otro, abre el debate sobre hasta qué punto las empresas tecnológicas deben asumir responsabilidad legal y moral frente a los <a href="https://dplnews.com/chatgpt-evoluciona-openai-prioriza-el-bienestar-del-usuario-sobre-el-tiempo-de-uso/">daños generados</a> por sus productos.</p>



<p>Este caso podría sentar precedentes legales y regulatorios a nivel global: si se ratifica que la tecnología tiene el potencial de “entrenar” peligrosamente a jóvenes en crisis, las normativas en torno a <strong>IA sensible al usuario,</strong> especialmente menores, requerirá cambios.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">287061</post-id>	</item>
		<item>
		<title>¿Qué hace Instagram en casos de suicidio y autolesión?</title>
		<link>https://dplnews.com/que-hace-instagram-en-casos-de-suicidio-y-autolesion/</link>
		
		<dc:creator><![CDATA[Carolina Valdovinos]]></dc:creator>
		<pubDate>Thu, 12 Nov 2020 06:40:55 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[Redes sociales]]></category>
		<category><![CDATA[Salud]]></category>
		<category><![CDATA[autolesiones]]></category>
		<category><![CDATA[hash]]></category>
		<category><![CDATA[Instagram]]></category>
		<category><![CDATA[salud mental]]></category>
		<category><![CDATA[suicidio]]></category>
		<category><![CDATA[usuarios]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=76125</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="782" src="https://dplnews.com/wp-content/uploads/2020/11/dplnews_Instagram_mc111120.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews Instagram mc111120" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2020/11/dplnews_Instagram_mc111120.jpg 1200w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_Instagram_mc111120-300x196.jpg 300w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_Instagram_mc111120-1024x667.jpg 1024w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_Instagram_mc111120-768x500.jpg 768w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_Instagram_mc111120-696x454.jpg 696w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_Instagram_mc111120-1068x696.jpg 1068w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_Instagram_mc111120-645x420.jpg 645w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="¿Qué hace Instagram en casos de suicidio y autolesión? 11"></div>El Director de Instagram, Adam Mosseri, anunció las más recientes acciones que la plataforma introducirá con la finalidad de auxiliar a personas vulnerables, no simplemente con políticas que atraviesan por modificaciones periódicas sino, además, ayudándose de recursos como los hashtags para poder estar más cerca de los usuarios en caso de necesitarlo. Mosseri señaló que [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="782" src="https://dplnews.com/wp-content/uploads/2020/11/dplnews_Instagram_mc111120.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews Instagram mc111120" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2020/11/dplnews_Instagram_mc111120.jpg 1200w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_Instagram_mc111120-300x196.jpg 300w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_Instagram_mc111120-1024x667.jpg 1024w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_Instagram_mc111120-768x500.jpg 768w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_Instagram_mc111120-696x454.jpg 696w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_Instagram_mc111120-1068x696.jpg 1068w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_Instagram_mc111120-645x420.jpg 645w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="¿Qué hace Instagram en casos de suicidio y autolesión? 12"></div>
<p>El Director de Instagram, Adam Mosseri, anunció las más recientes acciones que la plataforma introducirá con la finalidad de auxiliar a personas vulnerables, no simplemente con políticas que atraviesan por modificaciones periódicas sino, además, ayudándose de recursos como los <em>hashtags</em> para poder estar más cerca de los usuarios en caso de necesitarlo.</p>



<p>Mosseri señaló que se ofrece apoyo a las personas que buscan cuentas o <em>hashtags</em> relacionados con el suicidio y las autolesiones, y son dirigidos a organizaciones locales que los pueden ayudar. Asimismo, el ejecutivo sostuvo que Instagram colabora con Smaritans, una organización benéfica de prevención del suicidio.</p>



<p>En relación al contenido dañino, Mosseri puntualizó que utiliza tecnología para encontrar y eliminar de manera proactiva contenido sobre sucicidio y autolesión. La tecnología encuentra publicaciones que pueden ser peligrosas y las envía a revisores humanos para que tomen la decisión final. Las acciones incluyen eliminar el contenido, conectar el perfil a organizaciones de emergencia o, en el más graves de los casos, llamar a los servicios de emergencia.</p>



<p>Asimismo, se señaló que más del 90 por ciento de contenido relacionado al suicidio o autolesión fue encontrado por la tecnología antes de que alguien más lo informara.</p>



<p>Mosseri indicó que ahora las herramientas de búsqueda de contenido relacionado a estos temas estarán disponibles dentro de la Unión Europea, tanto para Facebook como para Instagram.</p>



<p>“Ahora podemos buscar publicaciones que probablemente rompan nuestras reglas sobre el suicidio y las autolesiones y hacerlas menos visibles eliminándolas automáticamente de lugares como Explorar”, escribió Mosseri.</p>



<p>Los problemas de salud mental no son para tomar a la ligera, más aún conforme la vida digital se extiende y las personas interactúan atrás de una pantalla. Las acciones de las redes sociales en beneficio de los usuarios que padecen alguna enfermedad mental son más importantes que nunca.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">76125</post-id>	</item>
		<item>
		<title>¿Son los móviles la causa de los males de los adolescentes? Ahora parece que no</title>
		<link>https://dplnews.com/son-los-moviles-la-causa-de-los-males-de-los-adolescentes-ahora-parece-que-no/</link>
		
		<dc:creator><![CDATA[DPL News]]></dc:creator>
		<pubDate>Wed, 22 Jan 2020 13:04:31 +0000</pubDate>
				<category><![CDATA[Cultura digital]]></category>
		<category><![CDATA[Redes sociales]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[adolescentes]]></category>
		<category><![CDATA[depresión]]></category>
		<category><![CDATA[dispositivos móviles]]></category>
		<category><![CDATA[Mundial]]></category>
		<category><![CDATA[suicidio]]></category>
		<category><![CDATA[teléfonos inteligentes]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=41964</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="700" height="350" src="https://dplnews.com/wp-content/uploads/2020/01/dplnews_adolescentes_celular_vr220120.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews adolescentes celular vr220120" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2020/01/dplnews_adolescentes_celular_vr220120.jpeg 700w, https://dplnews.com/wp-content/uploads/2020/01/dplnews_adolescentes_celular_vr220120-300x150.jpeg 300w, https://dplnews.com/wp-content/uploads/2020/01/dplnews_adolescentes_celular_vr220120-696x348.jpeg 696w" sizes="auto, (max-width: 700px) 100vw, 700px" title="¿Son los móviles la causa de los males de los adolescentes? Ahora parece que no 13"></div>El País-Jordi Pérez Colomé Los adolescentes sufren más ansiedad, depresión y suicidio tras la aparición de los móviles y las redes sociales, decía la evidencia científica. Los&#160;titulares&#160;que provocaron esos artículos fueron sonados: &#8220;¿Han destruido los móviles una generación?&#8221;, &#8220;La&#160;Generación Smartphone&#160;no está preparada para la edad adulta&#8221; o &#8220;Empeora la salud mental entre los más jóvenes&#8221;. [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="700" height="350" src="https://dplnews.com/wp-content/uploads/2020/01/dplnews_adolescentes_celular_vr220120.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews adolescentes celular vr220120" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2020/01/dplnews_adolescentes_celular_vr220120.jpeg 700w, https://dplnews.com/wp-content/uploads/2020/01/dplnews_adolescentes_celular_vr220120-300x150.jpeg 300w, https://dplnews.com/wp-content/uploads/2020/01/dplnews_adolescentes_celular_vr220120-696x348.jpeg 696w" sizes="auto, (max-width: 700px) 100vw, 700px" title="¿Son los móviles la causa de los males de los adolescentes? Ahora parece que no 14"></div>
<p><a href="https://elpais.com/tecnologia/2020/01/21/actualidad/1579566395_050353.html" rel="nofollow noopener" target="_blank">El País-Jordi Pérez Colomé</a></p>



<p>Los adolescentes sufren más ansiedad, depresión y suicidio tras la aparición de los móviles y las redes sociales, decía la evidencia científica. Los&nbsp;<a href="https://elpais.com/sociedad/2019/03/20/actualidad/1553105010_527764.html" rel="nofollow noopener" target="_blank">titulares</a>&nbsp;que provocaron esos artículos fueron sonados: &#8220;¿<a href="https://retina.elpais.com/retina/2018/02/21/tendencias/1519215095_884873.html" target="_blank" rel="noreferrer noopener nofollow">Han destruido los móviles una generación</a>?&#8221;, &#8220;La&nbsp;<em>Generación Smartphone</em>&nbsp;no está preparada para la edad adulta&#8221; o &#8220;Empeora la salud mental entre los más jóvenes&#8221;.</p>



<p>Resulta que todo esto es, al menos, dudoso. Investigadores de universidades británicas y estadounidenses cuestionan que los estudios iniciales demuestren una correlación razonable entre móviles y enfermedades mentales. Cuando la hay es minúscula, y no está claro que sea causal.</p>



<p>&#8220;Hay un montón de posibles explicaciones igualmente válidas que los móviles&#8221;</p>



<p>&#8220;Los problemas mentales y de ansiedad empezaron a aumentar antes de la irrupción de los móviles. Pero además hay un montón de posibles explicaciones igualmente válidas que los móviles: la pérdida de empleo, la crisis económica, la crisis de los opiáceos, la presión académica,&nbsp;<a href="https://elpais.com/sociedad/2020/01/04/actualidad/1578148446_551963.html" rel="nofollow noopener" target="_blank">el movimiento&nbsp;<em>#MeToo</em></a>&nbsp;para las mujeres. Todo puede contribuir a esta subida&#8221;, dice Candice Odgers, profesora de psicología la Universidad de California Irvine, por teléfono a EL PAÍS.</p>



<p>¿Significa todo esto que ya los adolescentes pueden vivir felices y saciados con 15 horas diarias móvil? No. Pero es mejor saber el origen real de un problema antes de intentar solucionarlo. La respuesta más sencilla o agradable no siempre es la más correcta. &#8220;Hay un miedo sustancialmente exagerado de las tecnologías digitales&#8221;, dice por email Amy Orben, investigadora en psicología experimental de la Universidad de Cambridge. &#8220;Pero apenas tenemos evidencia por ahora de que el tiempo pasado ante una pantalla –en total– impacte negativamente a la mayoría de la población infantil&#8221;, añade.</p>



<p>El pánico se ha convertido en un modo de ganar dinero para algunos. &#8220;La teoría del miedo sobre la tecnología se ha convertido en una industria casera para vender libros, charlas y consultoría&#8221;, dice Andrew Przybylski, director de investigación del Oxford Internet Institute y uno de los grandes expertos en jóvenes y móviles. Pero eso no es sensato para nadie, sobre todo para las preocupaciones de los padres, añade: &#8220;Lo mejor es no tratar la tecnología como una &#8216;caja negra&#8217;. Intentemos tratar esta actividad como ir en bicicleta, con sus riesgos y recompensas: implícate y elabora una idea realista sobre lo que está bien y cuándo para tus chicos&#8221;.</p>



<p>Lo nuevo es malo porque los viejos de esta generación no lo vivieron de jóvenes</p>



<p>Odgers, junto a la profesora de la Universidad de Carolina del Norte Michaeline R. Jensen, y Orben, han publicado en los últimos días&nbsp;<a href="https://onlinelibrary.wiley.com/doi/full/10.1111/jcpp.13190" rel="nofollow noopener" target="_blank">dos artículos</a>&nbsp;donde&nbsp;<a href="https://link.springer.com/article/10.1007/s00127-019-01825-4?wt_mc=Internal.Event.1.SEM.ArticleAuthorOnlineFirst&amp;utm_source=ArticleAuthorOnlineFirst&amp;utm_medium=email&amp;utm_content=AA_en_06082018&amp;ArticleAuthorOnlineFirst_20200111" rel="nofollow noopener" target="_blank">repasan la evidencia</a>&nbsp;en el sector. El resultado es descorazonador: &#8220;Dada la falta de evidencia de conexiones fuertes entre la cantidad de tiempo que los adolescentes emplean en redes sociales y su salud mental&#8221;, escriben Odgers y Jensen, la pregunta es: ¿por qué la tecnología digital ha sido tan rápida y vehementemente identificada como la causa en las subidas recientes de depresión adolescente?&#8221;</p>



<p>Orben ve un motivo casi evolutivo para esta asignación de culpas al primer sospechoso. Es una razón repetida en la historia, donde lo nuevo es malo porque los viejos de esta generación no lo vivieron de jóvenes: &#8220;La preocupación por tecnologías nuevas que cambian nuestra sociedad es normal, una podría decir que tienen un beneficio evolutivo al hacernos más cautos a cambios bruscos. No tiene que sorprendernos que ahora estemos preocupados por las pantallas porque antes lo estuvimos por la adicción a la radio, las novelas románticas y la imprenta&#8221;, dice.</p>



<p>Como todas las narrativas, la corrección del pánico inicial suele llevar más tiempo y evidencia, que aún no ha llegado. No es extraño: el iPhone es de 2007. Apenas ha pasado una década. Incluso a la velocidad que ocurren ahora los cambios, es poco tiempo para entender las consecuencias de su llegada.</p>



<h3 class="wp-block-heading">Los más voraces</h3>



<p>La preocupación por los adolescentes, sin embargo, es lógica. Son los adaptadores más voraces de las nuevas tecnologías. Los efectos de cada novedad pueden verse antes en su generación que en las otras. Según el artículo de Odgers y Jensen, uno de cada tres usuarios de internet en el mundo tiene menos de 18 años y si unimos economías avanzadas y emergentes es más probable que los menores de 35 años, respecto a los mayores, tengan acceso a internet,&nbsp;<em>smartphone</em>&nbsp;y redes sociales.</p>



<p>En una gran muestra de niños en colegios estadounidenses, casi la mitad de los alumnos de 11 años tenían móvil; a los 14, ya el 85% eran dueños de uno. El tiempo que pasan delante de la pantalla está también a otro nivel: una estimación reciente, siempre según Odgers y Jensen, establece que adolescentes de entre 13 y 18 años pasan delante de pantallas con objetivos no escolares una media de 6,6 horas diarias, y sus sucesores de 8 a 12 años, 4,6 horas.</p>



<p>La obsesión de los mayores es que el tiempo ante una pantalla es perdido ante la aparente belleza del mundo real</p>



<p>Esta mezcla de horas, móviles y redes sociales unido a la subida de ansiedad, depresión y tasas de suicidio hace pensar a las generaciones mayores en un drama a punto de estallar. Al menos la última década hizo pensar que los móviles eran los responsables. Pero un análisis minucioso da otra versión, al menos por tres motivos.</p>



<p>Primero, el tiempo de pantalla significa poco. La obsesión de los mayores es que el tiempo ante una pantalla es perdido ante la aparente belleza del mundo real. Puede ser. Pero lo que es seguro es que no todo el tiempo de pantalla es igual. Las apps que miden el tiempo de pantalla fustigan igual a sus usuarios por ver vídeos, jugar a videojuegos (ya sea Fortnite o para aprender a programar), responder a vídeos de amor en TikTok, leer la&nbsp;<em>Divina Comedia</em>&nbsp;o hacer un Skype con el abuelo.</p>



<p>Pero eso es injusto y poco científico. &#8220;Cuando hablamos de&nbsp;<em>tiempo de pantalla</em>&nbsp;hacemos la media de una uso muy amplio de tecnologías distintas, y eso puede ser uno de los problema que limita nuestro conocimiento&#8221;, dice Orben. &#8220;Ahora mucha de nuestra conversación social sobre&nbsp;<em>tiempo de pantalla</em>&nbsp;lo junta todo, lo que debe tener un efecto consistente. No debe sorprendernos si no encontramos resultados notables&#8221;, añade.</p>



<p>Segundo, no todas las bases de datos (ni los países) son iguales. Hay varios modos de medir la correlación entre uso de móvil y ansiedad. Las encuestas que vinculan ambas durante años pueden ser una fuente. Pero por estar en la prehistoria del móvil, es difícil que cada medición se refiera a lo mismo con la misma fuerza. Entre 2009 y 2017 mientras el uso de las redes se ha extendido entre adolescentes en Estados Unidos, &#8220;las asociaciones entre redes y síntomas depresivos han decrecido en magnitud&#8221;, escriben Odgers y Jensen. El efecto se habría diluido.</p>



<p>Tampoco son claras las tendencias. El aumento de suicidios es significativo en Estados Unidos e irrelevante en Europa. Ambos lugares adoptaron el móvil con la misma intensidad. Si la correlación fuera única, en Europa también debería verse.</p>



<p>Tercero, los riesgos online pueden reflejar o ampliar debilidades reales. Los adolescentes con casos de acoso previo pueden recibir más&nbsp;<em>bullying</em>&nbsp;online. Igualmente, adolescentes que sufren problemas mentales pueden buscar más contenido negativo en redes. Estos estudios suelen hacerse además con muestras sesgadas con más familias de recursos. El uso del móvil varía en las familias según renta. Las conclusiones por tanto se extraen según un tipo de adolescente específico, que no refleja la sociedad.</p>



<p>Por ahora, por tanto,&nbsp;<a href="https://elpais.com/tecnologia/2019/08/29/actualidad/1567077388_039600.html" rel="nofollow noopener" target="_blank">la evidencia es débil.</a>&nbsp;Si fuera el cáncer lo que correlara con los móviles, la comunidad médica no aceptaría que ambas líneas crecen igual como prueba sustancial, dicen Odgers y Jensen. &#8220;Por tanto no debemos aceptar este estándar al unir el aumento de suicidio y depresión entre adolescentes con el uso de redes sociales&#8221;, escriben. Hasta que emerja nueva evidencia, si llega.</p>



<p>¿Y qué hacer mientras? Lo mejor es esperar a reaccionar y acompañar a los chavales, cree Odgers: &#8220;Esta historia encaja con nuestros miedos, es una historia que la gente quiere creer, pero los hechos no la apoyan. Tenemos que hablar con los adolescentes basados en hechos no en temores. Hay que acompañar a los adolescentes allí donde estén&#8221;, dice.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">41964</post-id>	</item>
		<item>
		<title>France Télécom y sus directivos, condenados por “acoso moral” en el caso de los suicidios</title>
		<link>https://dplnews.com/france-telecom-y-sus-directivos-condenados-por-acoso-moral-en-el-caso-de-los-suicidios/</link>
		
		<dc:creator><![CDATA[DPL News]]></dc:creator>
		<pubDate>Fri, 20 Dec 2019 16:18:56 +0000</pubDate>
				<category><![CDATA[REDES]]></category>
		<category><![CDATA[acoso moral]]></category>
		<category><![CDATA[France Telecom]]></category>
		<category><![CDATA[Francia]]></category>
		<category><![CDATA[suicidio]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=38989</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1960" height="1149" src="https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="Didier Lombard" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard.jpg 1960w, https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard-300x176.jpg 300w, https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard-1024x600.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard-768x450.jpg 768w, https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard-1536x900.jpg 1536w, https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard-696x408.jpg 696w, https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard-1068x626.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard-716x420.jpg 716w, https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard-1920x1126.jpg 1920w" sizes="auto, (max-width: 1960px) 100vw, 1960px" title="France Télécom y sus directivos, condenados por “acoso moral” en el caso de los suicidios 15"></div>El País Marc Bassets El antiguo monopolio telefónico francés, France Télécom, y algunos de sus exdirectivos han sido condenados este viernes a penas de prisión y multas por “acoso moral”. Sus métodos para reestructurar la empresa a finales de la pasada década se vincularon con varios suicidios ocurridos en la misma época. La sentencia puede [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1960" height="1149" src="https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="Didier Lombard" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard.jpg 1960w, https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard-300x176.jpg 300w, https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard-1024x600.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard-768x450.jpg 768w, https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard-1536x900.jpg 1536w, https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard-696x408.jpg 696w, https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard-1068x626.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard-716x420.jpg 716w, https://dplnews.com/wp-content/uploads/2019/12/Didier-Lombard-1920x1126.jpg 1920w" sizes="auto, (max-width: 1960px) 100vw, 1960px" title="France Télécom y sus directivos, condenados por “acoso moral” en el caso de los suicidios 16"></div>
<p><a href="https://elpais.com/economia/2019/12/20/actualidad/1576837356_769272.html" rel="nofollow noopener" target="_blank">El País</a>  Marc Bassets</p>



<p>El antiguo monopolio telefónico francés, France Télécom, y algunos de  sus exdirectivos han sido condenados este viernes a penas de prisión y  multas <a href="https://elpais.com/economia/2019/05/09/actualidad/1557394310_784590.html" rel="nofollow noopener" target="_blank">por “acoso moral”</a>.  Sus métodos para reestructurar la empresa a finales de la pasada década  se vincularon con varios suicidios ocurridos en la misma época. La  sentencia puede crear un precedente que obligue a las grandes compañías a  tener en cuenta la salud mental los trabajadores al aplicar sus planes.  Didier Lombard, ex consejero delegado, así como su número dos y su  director de recursos humanos, fueron condenados a un año de prisión,  aunque a los cuatro meses podrán salir en libertad bajo fianza, y a  15.000 euros de multa. Orange, heredera de France Télécom, deberá pagar  75.000 euros.</p>



<p>Leer más: <a href="https://elpais.com/economia/2019/12/20/actualidad/1576837356_769272.html" rel="nofollow noopener" target="_blank">https://elpais.com/economia/2019/12/20/actualidad/1576837356_769272.html</a></p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">38989</post-id>	</item>
		<item>
		<title>Facebook eliminó cuentas falsas y millones de publicaciones sobre abuso infantil y suicidio</title>
		<link>https://dplnews.com/facebook-elimino-cuentas-falsas-y-millones-de-publicaciones-sobre-abuso-infantil-y-suicidio/</link>
		
		<dc:creator><![CDATA[Carolina Valdovinos]]></dc:creator>
		<pubDate>Fri, 15 Nov 2019 12:46:34 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[Redes sociales]]></category>
		<category><![CDATA[abuso infantil]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[Instagram]]></category>
		<category><![CDATA[suicidio]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=35185</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="739" height="415" src="https://dplnews.com/wp-content/uploads/2019/09/dplnews_megusta_facebook_vr270919.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews megusta facebook vr270919" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/09/dplnews_megusta_facebook_vr270919.jpeg 739w, https://dplnews.com/wp-content/uploads/2019/09/dplnews_megusta_facebook_vr270919-300x168.jpeg 300w, https://dplnews.com/wp-content/uploads/2019/09/dplnews_megusta_facebook_vr270919-696x391.jpeg 696w" sizes="auto, (max-width: 739px) 100vw, 739px" title="Facebook eliminó cuentas falsas y millones de publicaciones sobre abuso infantil y suicidio 17"></div>Facebook eliminó al menos 3 mil 200 millones de cuentas falsas entre abril y septiembre de este año, en conjunto con millones de publicaciones que representan abuso infantil y suicidio, según su último informe de moderación de contenido publicado esta semana. Además, el gigante de las redes sociales reveló por primera vez cuántas publicaciones eliminó [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="739" height="415" src="https://dplnews.com/wp-content/uploads/2019/09/dplnews_megusta_facebook_vr270919.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews megusta facebook vr270919" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/09/dplnews_megusta_facebook_vr270919.jpeg 739w, https://dplnews.com/wp-content/uploads/2019/09/dplnews_megusta_facebook_vr270919-300x168.jpeg 300w, https://dplnews.com/wp-content/uploads/2019/09/dplnews_megusta_facebook_vr270919-696x391.jpeg 696w" sizes="auto, (max-width: 739px) 100vw, 739px" title="Facebook eliminó cuentas falsas y millones de publicaciones sobre abuso infantil y suicidio 18"></div>
<p>Facebook eliminó al menos 3 mil 200 millones de cuentas falsas entre abril y septiembre de este año, en conjunto con millones de publicaciones que representan abuso infantil y suicidio, según su último informe de moderación de contenido publicado esta semana.</p>



<p>Además, el gigante de las redes sociales reveló por primera vez cuántas publicaciones eliminó de Instagram, que según investigadores se han convertido en un foco de desinformación.</p>



<p>Asimismo, se eliminaron cerca de 12 millones de piezas de contenido que muestran la desnudez infantil y la explotación sexual de niños en Facebook, y 754 mil piezas en Instagram durante el tercer trimestre.</p>



<p>La compañía con sede en Menlo Park, California, también dijo que eliminó alrededor de 2.5 millones de publicaciones que representaban o alentaban al suicidio o autolesión en el tercer trimestre.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">35185</post-id>	</item>
		<item>
		<title>Instagram prohibirá memes y dibujos sobre suicidio</title>
		<link>https://dplnews.com/instagram-prohibira-memes-y-dibujos-sobre-suicidio/</link>
		
		<dc:creator><![CDATA[Valeria Romero]]></dc:creator>
		<pubDate>Fri, 01 Nov 2019 01:51:48 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[Redes sociales]]></category>
		<category><![CDATA[Salud]]></category>
		<category><![CDATA[Instagram]]></category>
		<category><![CDATA[prevención de suicidios]]></category>
		<category><![CDATA[redes sociales]]></category>
		<category><![CDATA[salud mental]]></category>
		<category><![CDATA[suicidio]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=33500</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="940" height="470" src="https://dplnews.com/wp-content/uploads/2019/10/dplnews_instagram_mc311019.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews instagram mc311019" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/10/dplnews_instagram_mc311019.jpg 940w, https://dplnews.com/wp-content/uploads/2019/10/dplnews_instagram_mc311019-300x150.jpg 300w, https://dplnews.com/wp-content/uploads/2019/10/dplnews_instagram_mc311019-768x384.jpg 768w, https://dplnews.com/wp-content/uploads/2019/10/dplnews_instagram_mc311019-696x348.jpg 696w, https://dplnews.com/wp-content/uploads/2019/10/dplnews_instagram_mc311019-840x420.jpg 840w" sizes="auto, (max-width: 940px) 100vw, 940px" title="Instagram prohibirá memes y dibujos sobre suicidio 19"></div>La red social Instagram anunció esta semana que ahora prohibirá también las imágenes de dibujos animados, memes, contenidos de películas, cómics o imágenes gráficas que hagan referencia al suicidio o autolesiones. La política abarca a las cuentas que comparten este tipo de contenido, las cuales tampoco serán recomendadas en la sección de búsqueda o Explore. [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="940" height="470" src="https://dplnews.com/wp-content/uploads/2019/10/dplnews_instagram_mc311019.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews instagram mc311019" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/10/dplnews_instagram_mc311019.jpg 940w, https://dplnews.com/wp-content/uploads/2019/10/dplnews_instagram_mc311019-300x150.jpg 300w, https://dplnews.com/wp-content/uploads/2019/10/dplnews_instagram_mc311019-768x384.jpg 768w, https://dplnews.com/wp-content/uploads/2019/10/dplnews_instagram_mc311019-696x348.jpg 696w, https://dplnews.com/wp-content/uploads/2019/10/dplnews_instagram_mc311019-840x420.jpg 840w" sizes="auto, (max-width: 940px) 100vw, 940px" title="Instagram prohibirá memes y dibujos sobre suicidio 20"></div>
<p>La red social Instagram anunció esta semana que ahora prohibirá también las imágenes de dibujos animados, memes, contenidos de películas, cómics o imágenes gráficas que hagan referencia al suicidio o autolesiones.</p>



<p>La política abarca a las cuentas que comparten este tipo de contenido, las cuales tampoco serán recomendadas en la sección de búsqueda o Explore. La red social ya había realizado cambios en febrero de este año, prohibiendo sólo las imágenes gráficas de autolesión.</p>



<p>De acuerdo con Instagram, gracias al cambio de política han logrado disminuir el doble de este tipo de contenido que antes. Alrededor de 834 mil piezas de contenidos sobre suicidio fueron eliminados, o se redujo su visibilidad con pantallas de sensibilidad.</p>



<p>Instagram también mencionó que se encuentran trabajando activamente en el Reino Unido con los Samaritanos y PAPYRUS, así como con la Línea Nacional de Prevención del Suicidio y el Proyecto Trevor en Estados Unidos, con el fin de diseñar nuevas pautas para ayudar a sus usuarios en peligro.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">33500</post-id>	</item>
	</channel>
</rss>
