<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Character.AI &#8211; DPL News</title>
	<atom:link href="https://dplnews.com/tag/character-ai-2/feed/" rel="self" type="application/rss+xml" />
	<link>https://dplnews.com</link>
	<description>DPL News</description>
	<lastBuildDate>Fri, 09 Jan 2026 16:51:57 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://dplnews.com/wp-content/uploads/2020/03/logo-favicon-64x64-dplnews.png</url>
	<title>Character.AI &#8211; DPL News</title>
	<link>https://dplnews.com</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">201771233</site>	<item>
		<title>Google y Character.AI negocian los primeros acuerdos en casos de muerte de adolescentes por chatbots</title>
		<link>https://dplnews.com/google-y-character-ai-negocian-los-primeros-acuerdos-en-casos-de-muerte-de-adolescentes-por-chatbots/</link>
		
		<dc:creator><![CDATA[Sharon Durán]]></dc:creator>
		<pubDate>Fri, 09 Jan 2026 16:51:54 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[adolescentes]]></category>
		<category><![CDATA[Character.AI]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[relevante tech]]></category>
		<category><![CDATA[suicidio]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=301519</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1440" height="805" src="https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews depresion adolescentes vr190719" decoding="async" fetchpriority="high" srcset="https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719.jpg 1440w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-300x168.jpg 300w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-768x429.jpg 768w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-1024x572.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-696x389.jpg 696w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-1068x597.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-751x420.jpg 751w" sizes="(max-width: 1440px) 100vw, 1440px" title="Google y Character.AI negocian los primeros acuerdos en casos de muerte de adolescentes por chatbots 1"></div>Google y la app de Inteligencia Artificial (IA) Character.AI están negociando los que podrían convertirse en los primeros acuerdos legales importantes en casos vinculados a muertes de adolescentes relacionadas con chatbots de IA. De acuerdo con documentos judiciales presentados esta semana, las partes han llegado a acuerdos “en principio” con varias familias, incluidos casos en [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1440" height="805" src="https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews depresion adolescentes vr190719" decoding="async" srcset="https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719.jpg 1440w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-300x168.jpg 300w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-768x429.jpg 768w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-1024x572.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-696x389.jpg 696w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-1068x597.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_depresion_adolescentes_vr190719-751x420.jpg 751w" sizes="(max-width: 1440px) 100vw, 1440px" title="Google y Character.AI negocian los primeros acuerdos en casos de muerte de adolescentes por chatbots 2"></div>
<p>Google y la app de Inteligencia Artificial (<a href="https://dplnews.com/tag/inteligencia-artificial/">IA</a>) Character.AI están negociando los que podrían convertirse en los primeros acuerdos legales importantes en casos vinculados a muertes de adolescentes relacionadas con chatbots de IA.</p>



<p>De acuerdo con documentos judiciales presentados esta semana, las partes han llegado a acuerdos “en principio” con varias familias, incluidos casos en Florida, Colorado, Nueva York y Texas, y ahora avanzan en la redacción de los textos finales y la fijación de compensaciones económicas. Sin embargo, los términos concretos de los acuerdos aún no han sido divulgados, además de que se requiere aprobación judicial.</p>



<p>Uno de los casos más mediáticos fue presentado por Megan Garcia, madre de un <a href="https://dplnews.com/un-adolescente-se-suicida-en-ee-uu-tras-enamorarse-de-un-personaje-creado-con-ia/">adolescente de 14 años de edad que se suicidó </a>tras mantener conversaciones con un chatbot de Character.AI inspirado en un personaje de ficción. La demanda alegaba que el bot interactuaba de manera emocional y sexualmente sugerente, fomentando una dependencia psicológica que terminó en tragedia.</p>



<p class="has-background" style="background-color:#fff6f9"><strong>Lee también: </strong><a href="https://dplnews.com/fiscales-de-ee-uu-advierten-sobre-las-practicas-de-manipulacion-y-delirio-de-chatbots-de-openai-meta-xai-y-otros-gigantes-de-ia/"><strong>Fiscales de EE. UU. advierten sobre las prácticas de manipulación y delirio de chatbots de OpenAI, Meta, xAI y otros gigantes de IA</strong></a></p>



<p>Las demandas, que también señalan a Google por su relación con <a href="https://dplnews.com/?s=Character.AI">Character.AI</a>, incluida la adquisición de tecnología y la recontratación de fundadores de la <em>startup</em>, acusaban a las empresas de no implementar salvaguardas adecuadas para proteger a usuarios menores de edad y de diseño negligente que expuso a los jóvenes a contenido dañino.</p>



<p>Hasta el momento, se sabe que los acuerdos no implican la admisión de responsabilidad por parte de Google ni <a href="http://character.ai" rel="nofollow noopener" target="_blank">Character.AI</a>; sin embargo, pueden sentar un precedente legal significativo en la industria tecnológica sobre cómo las plataformas de IA manejan la seguridad y el bienestar de los usuarios jóvenes.</p>



<p>Las negociaciones surgen alrededor de la creciente preocupación en Estados Unidos por el incremento de suicidios y autolesiones de adolescentes que pasaban mucho tiempo con algún Chatbot.</p>



<p>A esta situación se suman demandas similares en <a href="https://dplnews.com/openai-habla-sobre-intervencion-de-chatgpt-en-suicidio-de-adolescente/">contra de OpenAI</a>, casa matriz de ChatGPT, e incluso el uso de IA en <a href="https://dplnews.com/acusan-a-plataforma-de-telemedicina-de-contribuir-al-suicidio-de-universitario/">plataformas de telemedicina </a>que impulsaron otro suicidio. Así como las leyes para garantizar un desarrollo ético de la IA en <a href="https://dplnews.com/california-promulga-ley-de-ia-que-busca-equilibrio-entre-innovacion-y-seguridad/">California</a>, <a href="https://dplnews.com/ley-raise-que-regula-la-ia-fronteriza-con-multas-de-hasta-3-mdd-entra-en-vigor-en-nueva-york/">Nueva York</a> y <a href="https://dplnews.com/florida-impulsa-ley-para-proteger-a-ciudadanos-de-abusos-y-riesgos-ia/">Florida</a>, en Estados Unidos, y otros esfuerzos alrededor del mundo como <a href="https://dplnews.com/china-propone-un-reglamento-para-controlar-la-ia-que-simula-comportamientos-humanos/">China</a>, <a href="https://dplnews.com/taiwan-aprueba-ley-basica-de-inteligencia-artificial/">Taiwán</a>, <a href="https://dplnews.com/colombia-define-marco-adopcion-ia-etica-sector-publico/">Colombia</a> y la <a href="https://dplnews.com/union-europea-propone-flexibilizar-regulaciones-de-ia-y-privacidad/">Unión Europea</a>, entre otros.&nbsp;</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">301519</post-id>	</item>
		<item>
		<title>Texas investiga a Meta AI y Character.AI por hacerse pasar por chatbots de salud mental</title>
		<link>https://dplnews.com/texas-investiga-a-meta-ai-y-character-ai-por-hacerse-pasar-por-chatbots-de-salud-mental/</link>
		
		<dc:creator><![CDATA[Sharon Durán]]></dc:creator>
		<pubDate>Fri, 22 Aug 2025 19:53:27 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[Character.AI]]></category>
		<category><![CDATA[Meta AI Studio]]></category>
		<category><![CDATA[relevante tech]]></category>
		<category><![CDATA[salud mental]]></category>
		<category><![CDATA[Texas]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=286281</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1536" height="1024" src="https://dplnews.com/wp-content/uploads/2025/08/dplnews_nina-ia-chatbot-salud-mental_mc22825.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews nina ia chatbot salud mental mc22825" decoding="async" srcset="https://dplnews.com/wp-content/uploads/2025/08/dplnews_nina-ia-chatbot-salud-mental_mc22825.png 1536w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_nina-ia-chatbot-salud-mental_mc22825-300x200.png 300w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_nina-ia-chatbot-salud-mental_mc22825-1024x683.png 1024w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_nina-ia-chatbot-salud-mental_mc22825-768x512.png 768w" sizes="(max-width: 1536px) 100vw, 1536px" title="Texas investiga a Meta AI y Character.AI por hacerse pasar por chatbots de salud mental 3"></div>El fiscal general de Texas, Estados Unidos, Ken Paxton, abrió una investigación sobre las plataformas de chatbot de Inteligencia Artificial (IA), Meta AI Studio y Character.AI, por participar en prácticas comerciales engañosas y comercializarse engañosamente como herramientas de salud mental. Las Demandas de Investigación Civil (CID, por sus siglas en inglés) que emitió Paxton contra [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1536" height="1024" src="https://dplnews.com/wp-content/uploads/2025/08/dplnews_nina-ia-chatbot-salud-mental_mc22825.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews nina ia chatbot salud mental mc22825" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2025/08/dplnews_nina-ia-chatbot-salud-mental_mc22825.png 1536w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_nina-ia-chatbot-salud-mental_mc22825-300x200.png 300w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_nina-ia-chatbot-salud-mental_mc22825-1024x683.png 1024w, https://dplnews.com/wp-content/uploads/2025/08/dplnews_nina-ia-chatbot-salud-mental_mc22825-768x512.png 768w" sizes="auto, (max-width: 1536px) 100vw, 1536px" title="Texas investiga a Meta AI y Character.AI por hacerse pasar por chatbots de salud mental 4"></div>
<p>El fiscal general de Texas, Estados Unidos, Ken Paxton, abrió una investigación sobre las plataformas de <em>chatbot </em>de Inteligencia Artificial (<a href="https://dplnews.com/tag/inteligencia-artificial/">IA</a>), <strong>Meta AI Studio</strong> y <strong>Character.AI</strong>, por participar en prácticas comerciales engañosas y comercializarse engañosamente como herramientas de salud mental.</p>



<p>Las Demandas de Investigación Civil (CID, por sus siglas en inglés) que emitió Paxton contra <a href="https://dplnews.com/meta-ai-studio-llega-a-brasil-creacion-chatbots/">Meta AI Studio</a> y <a href="https://dplnews.com/?s=Character.AI">Character.AI</a> pretenden evaluar el alcance de posibles irregularidades y determinarán si las empresas han violado las leyes de protección al consumidor de Texas, incluyendo aquellas que prohíben las reclamaciones fraudulentas, tergiversaciones de la privacidad y la ocultación del uso de datos importantes.</p>



<p>De acuerdo con el fiscal, estas plataformas pueden ser utilizadas por personas vulnerables, incluyendo niños, y pueden presentarse como herramientas terapéuticas profesionales, a pesar de carecer de las credenciales médicas o la supervisión adecuadas.</p>



<p>“En la era digital actual, debemos seguir luchando para proteger a los niños de Texas de la tecnología engañosa y explotadora. Al hacerse pasar por fuentes de apoyo emocional, <strong>las plataformas de IA pueden engañar a usuarios vulnerables</strong>, especialmente a los niños, haciéndoles creer que reciben atención de salud mental legítima. En realidad, a menudo reciben respuestas genéricas y recicladas, diseñadas para alinearse con datos personales recopilados y disfrazadas de consejo terapéutico”, detalló Ken Paxton.</p>



<p><strong>Lee también: </strong><a href="https://dplnews.com/chatbots-emocionales-ia-riesgo-para-la-salud-mental/"><strong>Chatbots emocionales de IA son un riesgo creciente para la salud mental</strong></a></p>



<p>Si bien los <em>chatbots </em>de IA afirman su confidencialidad, sus términos de servicio revelan que las interacciones de los usuarios se registran, rastrean y se usan para publicidad dirigida y desarrollo de algoritmos, lo que genera serias preocupaciones sobre <strong>violaciones de la privacidad</strong>, abuso de datos y <strong>publicidad engañosa</strong>.</p>



<p>Esta investigación es la continuación de otra que está en curso sobre <a href="http://character.ai" rel="nofollow noopener" target="_blank"><strong>Character.AI</strong></a><strong> </strong>por posibles violaciones de la Ley de Protección Infantil en Línea a través del Empoderamiento Parental o Ley SCOPE, que busca proteger a los menores en línea en Texas.</p>



<p>Cabe recordar que Character.AI sigue en el centro de las decisiones, luego de que el <em>chatbot </em><a href="https://dplnews.com/un-adolescente-se-suicida-en-ee-uu-tras-enamorarse-de-un-personaje-creado-con-ia/">incitara a un menor de 13 años de edad a quitarse la vida</a>, en octubre de 2024.&nbsp;</p>



<p>El fiscal general señaló que esta investigación ayudará a “garantizar que las herramientas de IA sean legales, transparentes y no se utilicen como arma para aprovecharse de la ciudadanía”.</p>



<p>El esfuerzo por investigar prácticas inadecuadas de IA en Texas se suma a otras iniciativas, como la audiencia judicial sobre el “<a href="https://dplnews.com/las-empresas-de-ia-estan-cometiendo-el-mayor-robo-de-propiedad-intelectual-acusa-senador-estadounidense/">mayor robo de propiedad intelectual</a>” para el entrenamiento de modelos de IA, presidida por Josh Hawley el mes pasado, y la propia iniciativa de representantes de las empresas de tecnología para <a href="https://dplnews.com/expertos-instan-a-monitorear-los-pensamientos-de-la-ia-antes-de-que-sea-demasiado-tarde/">monitorear más de cerca el desarrollo de la tecnología</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">286281</post-id>	</item>
		<item>
		<title>Acusada de favorecer suicidios de adolescentes, Character.AI anuncia medidas de seguridad</title>
		<link>https://dplnews.com/acusada-de-favorecer-suicidios-de-adolescentes-character-ai-anuncia-medidas-de-seguridad/</link>
		
		<dc:creator><![CDATA[DPL News]]></dc:creator>
		<pubDate>Fri, 13 Dec 2024 18:52:42 +0000</pubDate>
				<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[Character.AI]]></category>
		<category><![CDATA[seguridad]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=259215</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="800" src="https://dplnews.com/wp-content/uploads/2020/09/dplnews_facebookdepresion_vr280920.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews facebookdepresion vr280920" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2020/09/dplnews_facebookdepresion_vr280920.jpeg 1200w, https://dplnews.com/wp-content/uploads/2020/09/dplnews_facebookdepresion_vr280920-300x200.jpeg 300w, https://dplnews.com/wp-content/uploads/2020/09/dplnews_facebookdepresion_vr280920-1024x683.jpeg 1024w, https://dplnews.com/wp-content/uploads/2020/09/dplnews_facebookdepresion_vr280920-768x512.jpeg 768w, https://dplnews.com/wp-content/uploads/2020/09/dplnews_facebookdepresion_vr280920-696x464.jpeg 696w, https://dplnews.com/wp-content/uploads/2020/09/dplnews_facebookdepresion_vr280920-1068x712.jpeg 1068w, https://dplnews.com/wp-content/uploads/2020/09/dplnews_facebookdepresion_vr280920-630x420.jpeg 630w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="Acusada de favorecer suicidios de adolescentes, Character.AI anuncia medidas de seguridad 5"></div>rfi Character.AI, que fuera una de las nuevas empresas de inteligencia artificial más prometedoras de Silicon Valley, anunció el jueves nuevas medidas de seguridad para proteger a los usuarios adolescentes mientras enfrenta acusaciones de que sus chatbots contribuyeron al suicidio y autolesiones de jóvenes. La empresa con sede en California, fundada por exingenieros de Google, [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="800" src="https://dplnews.com/wp-content/uploads/2020/09/dplnews_facebookdepresion_vr280920.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews facebookdepresion vr280920" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2020/09/dplnews_facebookdepresion_vr280920.jpeg 1200w, https://dplnews.com/wp-content/uploads/2020/09/dplnews_facebookdepresion_vr280920-300x200.jpeg 300w, https://dplnews.com/wp-content/uploads/2020/09/dplnews_facebookdepresion_vr280920-1024x683.jpeg 1024w, https://dplnews.com/wp-content/uploads/2020/09/dplnews_facebookdepresion_vr280920-768x512.jpeg 768w, https://dplnews.com/wp-content/uploads/2020/09/dplnews_facebookdepresion_vr280920-696x464.jpeg 696w, https://dplnews.com/wp-content/uploads/2020/09/dplnews_facebookdepresion_vr280920-1068x712.jpeg 1068w, https://dplnews.com/wp-content/uploads/2020/09/dplnews_facebookdepresion_vr280920-630x420.jpeg 630w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="Acusada de favorecer suicidios de adolescentes, Character.AI anuncia medidas de seguridad 6"></div>
<p><a href="https://www.rfi.fr/es/m%C3%A1s-noticias/20241213-acusada-de-favorecer-suicidios-de-adolescentes-character-ai-anuncia-medidas-de-seguridad" data-type="link" data-id="https://www.rfi.fr/es/m%C3%A1s-noticias/20241213-acusada-de-favorecer-suicidios-de-adolescentes-character-ai-anuncia-medidas-de-seguridad" rel="nofollow noopener" target="_blank">rfi</a></p>



<p>Character.AI, que fuera una de las nuevas empresas de inteligencia artificial más prometedoras de Silicon Valley, anunció el jueves nuevas medidas de seguridad para proteger a los usuarios adolescentes mientras enfrenta acusaciones de que sus chatbots contribuyeron al suicidio y autolesiones de jóvenes.</p>



<p>La empresa con sede en California, fundada por exingenieros de Google, es una de varias empresas que ofrecen chatbots diseñados para brindar conversación, entretenimiento y apoyo emocional a través de interacciones similares a las de los humanos.</p>



<p>En una demanda presentada en octubre en el estado de Florida, una madre afirmó que la plataforma es responsable del suicidio de su hijo de 14 años.</p>



<p>Leer más: <a href="https://www.rfi.fr/es/m%C3%A1s-noticias/20241213-acusada-de-favorecer-suicidios-de-adolescentes-character-ai-anuncia-medidas-de-seguridad" rel="nofollow noopener" target="_blank">https://www.rfi.fr/es/m%C3%A1s-noticias/20241213-acusada-de-favorecer-suicidios-de-adolescentes-character-ai-anuncia-medidas-de-seguridad</a></p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">259215</post-id>	</item>
	</channel>
</rss>
