<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>chatbots de IA &#8211; DPL News</title>
	<atom:link href="https://dplnews.com/tag/chatbots-de-ia/feed/" rel="self" type="application/rss+xml" />
	<link>https://dplnews.com</link>
	<description>DPL News</description>
	<lastBuildDate>Sat, 02 May 2026 05:49:17 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://dplnews.com/wp-content/uploads/2020/03/logo-favicon-64x64-dplnews.png</url>
	<title>chatbots de IA &#8211; DPL News</title>
	<link>https://dplnews.com</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">201771233</site>	<item>
		<title>Proyecto de Ley Chatbot en EE. UU. propone que padres tengan el control de la IA para sus hijos</title>
		<link>https://dplnews.com/proyecto-de-ley-chatbot-en-ee-uu-propone-que-padres-tengan-el-control-de-la-ia-para-sus-hijos/</link>
		
		<dc:creator><![CDATA[Alejandro González]]></dc:creator>
		<pubDate>Sat, 02 May 2026 05:49:12 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[chatbots de IA]]></category>
		<category><![CDATA[Estados Unidos]]></category>
		<category><![CDATA[menores de edad]]></category>
		<category><![CDATA[relevante tech]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=314232</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="2560" height="1280" src="https://dplnews.com/wp-content/uploads/2024/07/dplnews_nino-smartphone_mc31724-scaled.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews nino smartphone mc31724 scaled" decoding="async" fetchpriority="high" srcset="https://dplnews.com/wp-content/uploads/2024/07/dplnews_nino-smartphone_mc31724-scaled.jpeg 2560w, https://dplnews.com/wp-content/uploads/2024/07/dplnews_nino-smartphone_mc31724-300x150.jpeg 300w, https://dplnews.com/wp-content/uploads/2024/07/dplnews_nino-smartphone_mc31724-1024x512.jpeg 1024w, https://dplnews.com/wp-content/uploads/2024/07/dplnews_nino-smartphone_mc31724-768x384.jpeg 768w, https://dplnews.com/wp-content/uploads/2024/07/dplnews_nino-smartphone_mc31724-1536x768.jpeg 1536w, https://dplnews.com/wp-content/uploads/2024/07/dplnews_nino-smartphone_mc31724-2048x1024.jpeg 2048w" sizes="(max-width: 2560px) 100vw, 2560px" title="Proyecto de Ley Chatbot en EE. UU. propone que padres tengan el control de la IA para sus hijos 1"></div>Una coalición bipartidista de senadores en Estados Unidos presentó un proyecto de ley que busca redefinir el control sobre las interacciones de los menores de edad con la Inteligencia Artificial (IA).  El presidente del Comité de Comercio del Senado, Ted Cruz (republicano por Texas), junto a los senadores Brian Schatz (demócrata por Hawái), John Curtis [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="2560" height="1280" src="https://dplnews.com/wp-content/uploads/2024/07/dplnews_nino-smartphone_mc31724-scaled.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews nino smartphone mc31724 scaled" decoding="async" srcset="https://dplnews.com/wp-content/uploads/2024/07/dplnews_nino-smartphone_mc31724-scaled.jpeg 2560w, https://dplnews.com/wp-content/uploads/2024/07/dplnews_nino-smartphone_mc31724-300x150.jpeg 300w, https://dplnews.com/wp-content/uploads/2024/07/dplnews_nino-smartphone_mc31724-1024x512.jpeg 1024w, https://dplnews.com/wp-content/uploads/2024/07/dplnews_nino-smartphone_mc31724-768x384.jpeg 768w, https://dplnews.com/wp-content/uploads/2024/07/dplnews_nino-smartphone_mc31724-1536x768.jpeg 1536w, https://dplnews.com/wp-content/uploads/2024/07/dplnews_nino-smartphone_mc31724-2048x1024.jpeg 2048w" sizes="(max-width: 2560px) 100vw, 2560px" title="Proyecto de Ley Chatbot en EE. UU. propone que padres tengan el control de la IA para sus hijos 2"></div>
<p>Una coalición bipartidista de <strong>senadores en Estados Unidos</strong> presentó <a href="https://dplnews.com/senadora-estados-unidos-marco-regulacion-nacional-ia/">un proyecto de ley</a> que busca redefinir el control sobre las interacciones de los menores de edad con la <strong>Inteligencia Artificial</strong> (IA). </p>



<p>El presidente del Comité de Comercio del Senado, Ted Cruz (republicano por Texas), junto a los senadores Brian Schatz (demócrata por Hawái), John Curtis (republicano por Utah) y Adam Schiff (demócrata por California), presentaron la <strong>Ley Chatbot</strong>, una legislación diseñada para darle a los padres la potestad de supervisar el uso que sus hijos dan a los chatbots.</p>



<p>Si bien los <strong>chatbots de IA </strong>pueden apoyar el aprendizaje, la investigación y la creatividad de los niños, también representan riesgos reales para los menores, como la exposición a contenido y lenguaje inapropiados, así como a funciones adictivas.&nbsp;</p>



<p>“Algunas empresas de IA incluso han implementado recompensas, notificaciones y publicidad dirigida para fomentar la interacción prolongada de los usuarios adolescentes”, dice la iniciativa de ley.</p>



<p>La <strong>Ley Chatbot</strong>, oficialmente llamada Ley de Salud Infantil, Promoción, Confianza, Límites y Supervisión en Tecnología, establecería requisitos estrictos para las empresas de IA.</p>



<p>Explican que específicamente, <a href="https://dplnews.com/republicanos-modifican-propuesta-trump-estados-podran-legislar-sobre-ia/">la norma exige la creación</a> de “cuentas familiares” que permitan a los padres gestionar el acceso y el uso de sus hijos a los chatbots.</p>



<p>Además, la ley busca limitar las “funciones de diseño manipuladoras”, requerir el consentimiento de los padres para el uso de la tecnología y otorgarles controles para supervisar las conversaciones de sus hijos con el chatbot.</p>



<p>Los senadores enfatizaron la urgencia de la medida citando los peligros conocidos. El senador Schatz advirtió que la IA es una herramienta poderosa con riesgos reales, mencionando informes de chatbots que han llegado a incitar a los niños a autolesionarse y que, en algunos casos, los están aislando al reemplazar las relaciones de la vida real.</p>



<p>El senador Schiff reforzó este punto destacando las “trágicas consecuencias” vistas, las cuales incluyen la promoción de la autolesión, la dependencia emocional y la explotación de menores.</p>



<p>Dijeron que en un esfuerzo bipartidista, el proyecto de ley establece límites de &#8220;sentido común&#8221; que priorizan la seguridad de los niños en línea.&nbsp;</p>



<p>El senador Cruz afirmó que el rápido desarrollo de chatbots sofisticados ha dejado a muchos padres desinformados, y que el Congreso tiene la oportunidad de devolverles el control para garantizar que Estados Unidos lidere el despliegue de la IA de forma segura y responsable.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">314232</post-id>	</item>
		<item>
		<title>La IA te manipula para obtener tu aprobación constante, y eso es un problema</title>
		<link>https://dplnews.com/la-ia-te-manipula-para-obtener-tu-aprobacion-constante-y-eso-es-un-problema/</link>
		
		<dc:creator><![CDATA[Efrén Páez Jiménez]]></dc:creator>
		<pubDate>Tue, 31 Mar 2026 05:10:31 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[adulación]]></category>
		<category><![CDATA[chatbots de IA]]></category>
		<category><![CDATA[relevante tech]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=310781</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1408" height="768" src="https://dplnews.com/wp-content/uploads/2026/03/dplnews_mujer-smartphone_mc300326.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews mujer smartphone mc300326" decoding="async" srcset="https://dplnews.com/wp-content/uploads/2026/03/dplnews_mujer-smartphone_mc300326.png 1408w, https://dplnews.com/wp-content/uploads/2026/03/dplnews_mujer-smartphone_mc300326-300x164.png 300w, https://dplnews.com/wp-content/uploads/2026/03/dplnews_mujer-smartphone_mc300326-1024x559.png 1024w, https://dplnews.com/wp-content/uploads/2026/03/dplnews_mujer-smartphone_mc300326-768x419.png 768w" sizes="(max-width: 1408px) 100vw, 1408px" title="La IA te manipula para obtener tu aprobación constante, y eso es un problema 3"></div>¿Has notado que los modelos de Inteligencia Artificial (IA) dan respuestas particularmente entusiastas y amables cada que haces la más insignificante consulta? Aunque a simple vista podría parecer que siempre contamos con las mejores ideas o que siempre tenemos la razón, esta reafirmación positiva constante podría ser el origen de nuevos problemas a largo plazo, [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1408" height="768" src="https://dplnews.com/wp-content/uploads/2026/03/dplnews_mujer-smartphone_mc300326.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews mujer smartphone mc300326" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2026/03/dplnews_mujer-smartphone_mc300326.png 1408w, https://dplnews.com/wp-content/uploads/2026/03/dplnews_mujer-smartphone_mc300326-300x164.png 300w, https://dplnews.com/wp-content/uploads/2026/03/dplnews_mujer-smartphone_mc300326-1024x559.png 1024w, https://dplnews.com/wp-content/uploads/2026/03/dplnews_mujer-smartphone_mc300326-768x419.png 768w" sizes="auto, (max-width: 1408px) 100vw, 1408px" title="La IA te manipula para obtener tu aprobación constante, y eso es un problema 4"></div>
<p>¿Has notado que los modelos de Inteligencia Artificial (IA) dan respuestas particularmente entusiastas y amables cada que haces la más insignificante consulta? Aunque a simple vista podría parecer que siempre contamos con las mejores ideas o que siempre tenemos la razón, esta reafirmación positiva constante podría ser el origen de nuevos problemas a largo plazo, desde falta de tolerancia cuando se nos presentan ideas diferentes a las nuestras hasta el convencimiento de que nuestras creencias y posicionamientos son los correctos, aun cuando sean claramente erróneos o incluso ilegales y peligrosos.</p>



<p>Un nuevo estudio publicado por investigadores de la Universidad de Stanford confirmó que prácticamente todos los grandes modelos de lenguaje (LLM) actúan de forma aduladora hacia los usuarios, un fenómeno que en inglés se conoce como <em>sycophancy</em>, y que describe un “comportamiento” de los <em>chatbots </em>de IA en el que priorizan la aprobación del usuario sobre la precisión y la veracidad. La IA prefiere estar de acuerdo con el usuario, incluso si tiene que validar afirmaciones incorrectas, evitando retroalimentación honesta y factual.</p>



<p>El estudio evaluó 11 LLMs de última generación, incluyendo modelos propietarios como GPT-4o de OpenAI, Claude de Anthropic y Gemini de Google, así como modelos de peso abierto de la familia Meta Llama-3, Qwen, DeepSeek y Mistral. En esta amplia gama de modelos, las IA confirmaron las acciones de los usuarios un 49% más a menudo que los humanos en promedio, sin importar si las indicaciones describían engaño, daño o conducta ilegal.</p>



<p>Esta característica no es casualidad, y está integrada en los modelos que buscan obtener una respuesta positiva de los usuarios y mantenerse como la opción preferida entre la decena de <em>chatbots </em>que circulan actualmente en el mercado. Cada que pulsamos ese pequeño botón con pulgares arriba (👍,👎) que usualmente encontramos al final de cada respuesta, es la reafirmación que la IA necesita para saber si su respuesta, equivocada o incoherente, fue de nuestro agrado.</p>



<p>Por un lado, este fenómeno reduce la utilidad real de los modelos, al ofrecer afirmaciones o respuestas incorrectas que están simplemente alineadas con nuestras propias ideas. Al mismo tiempo, según los investigadores, esta característica representa un problema a largo plazo para el desarrollo adecuado de nuestras habilidades sociales, así como la formación de nuestras creencias y conocimientos basados en hechos.</p>



<p>Según la investigación, OpenAI, empresa de IA detrás del famoso ChatGPT, reconoció que la <a href="https://dplnews.com/openai-cambio-evitar-adulacion-futuros-modelos-chatgpt/">versión GPT-4o</a> se había vuelto demasiado afirmativa después de una actualización, lo que provocó una rápida reversión después de que los usuarios expresaran su preocupación por comentarios distorsionados. No obstante, la investigación señala que esto no eliminó el fenómeno general, ya que la IA mantenía una conversación educada y agradable, a expensas de la precisión.</p>



<p>Uno de los experimentos se basó en conversaciones provenientes de Reddit, red social que cuenta con foros (r/AmITheAsshole) en los que los usuarios buscan retroalimentación de la comunidad respecto a conflictos interpersonales o para saber si su respuesta a cierta situación fue justificada. La investigación encontró que la IA prefería reafirmar la posición del usuario, aun cuando el consenso entre la comunidad era negativa.</p>



<p>En general, aunque la respuesta de la IA pudiera ser incorrecta o incoherente, finalmente era efectiva para obtener la aprobación positiva del usuario. Según el estudio, una sola interacción con una IA aduladora aumentaba la confianza de los usuarios en que estaban &#8220;en lo correcto&#8221;, al tiempo que reducía su voluntad de asumir responsabilidades o reparar daños interpersonales.</p>



<p>En diversos experimentos realizados por los investigadores, los participantes calificaron las respuestas aduladoras como de mayor calidad, más confiables y más deseables para uso futuro. En ese sentido, el estudio advierte que esta preferencia crea un ciclo que se refuerza a sí mismo en el que las mismas respuestas que distorsionan el juicio social son aquellas a las que los usuarios tienden a regresar y los algoritmos de IA aprenden a optimizar.</p>



<p>Pese a las respuestas de los modelos de IA que provocaban que los usuarios estuvieran menos dispuestos a reparar alguna relación personal, los usuarios “calificaban los modelos de IA aduladora como de mayor calidad, más confiables y más deseables para su uso futuro, lo que podría explicar por qué este comportamiento ha persistido a pesar de sus efectos perjudiciales”.</p>



<p>Un fenómeno similar ocurre con las redes sociales, en las que los usuarios usualmente se ven envueltos en burbujas, caracterizadas por una constante exposición a ideas y contenido alineado con nuestras propias preferencias. En el largo plazo, esto termina alejando a los usuarios de ideas opuestas o diversas, y los hace menos propensos a aceptar el contraste de opiniones.</p>



<p>Aunque se requieren de nuevos experimentos y estudios para conocer los efectos a largo plazo de una IA aduladora, los investigadores advierten que el uso constante de estos modelos podría provocar que los usuarios estén siempre convencidos de que tienen razón, que los demás están equivocados y que no es necesario disculparse ni ponerse en el lugar del otro.</p>



<p>“Además, con el tiempo, este tipo de adulación constante puede redefinir las expectativas sobre cómo debería sentirse la retroalimentación. Por lo tanto, las personas pueden inclinarse hacia una IA sin fricciones en momentos de incertidumbre y, simultáneamente, empezar a anticipar una afirmación constante similar por parte de los demás. El efecto acumulativo es una reducción de la tolerancia a la fricción social a través de la cual normalmente se producen la empatía, la responsabilidad y el crecimiento”, advierte la revista <em>Science</em>, al revisar el estudio.</p>



<p>Más aún, la investigación advierte que ciertos tipos de población, como los usuarios más jóvenes, personas que experimentan aislamiento social o que están en búsqueda de tranquilidad emocional, podrían ser los más susceptibles. Esto es relevante, en especial cuando los <em>chatbots </em>de IA comienzan a ocupar una posición más importante en la vida cotidiana de los usuarios, no sólo para tareas productivas o simple búsqueda de información, sino cuando también son utilizadas para buscar consejos médicos, emocionales y sociales.</p>



<p>“La adulación de la IA no es simplemente una cuestión de estilo o un riesgo aislado, sino un comportamiento generalizado con amplias consecuencias. Si bien la aprobación puede resultar reconfortante, la adulación puede mermar la capacidad de los usuarios para autocorregirse y tomar decisiones responsables”, advierte el estudio.</p>



<h2 class="wp-block-heading">¿Qué hacer?</h2>



<p>Los investigadores reconocen que pese a las implicaciones de la IA aduladora, la realidad es que los desarrolladores tienen pocos incentivos para hacer cambios profundos al modo en que operan estos <em>chatbots</em>, cuando el propósito principal es obtener un mayor enganche de los usuarios.</p>



<p>En ese sentido, el estudio señala que se requieren “nuevos mecanismos de regulación y rendición de cuentas”. Esta regulación podría implicar marcos de rendición de cuentas y auditorías de comportamiento previas al despliegue, para evaluar la prevalencia de la adulación en los modelos de IA y su potencial para reforzar autopercepciones dañinas.</p>



<p>Los investigadores también recomiendan que los modelos podrían requerir mayores intervenciones técnicas y centradas en el humano, en el que los LLM prioricen respuestas útiles sobre la satisfacción del usuario, así como considerar contextos sociales más amplios.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">310781</post-id>	</item>
		<item>
		<title>Keir Starmer declara la guerra a chatbots de IA y redes sociales: propone límites de edad y freno al scroll infinito</title>
		<link>https://dplnews.com/keir-starmer-guerra-a-chatbots-de-ia-y-redes-sociales/</link>
		
		<dc:creator><![CDATA[Alejandro González]]></dc:creator>
		<pubDate>Tue, 17 Feb 2026 16:16:34 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[Redes sociales]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[chatbots de IA]]></category>
		<category><![CDATA[Keir Starmer]]></category>
		<category><![CDATA[redes sociales]]></category>
		<category><![CDATA[Reino Unido]]></category>
		<category><![CDATA[relevante tech]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=305842</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="2560" height="1707" src="https://dplnews.com/wp-content/uploads/2024/04/dplnews_usuario-chatgpt-ia_mc23424-scaled.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews usuario chatgpt ia mc23424 scaled" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2024/04/dplnews_usuario-chatgpt-ia_mc23424-scaled.jpeg 2560w, https://dplnews.com/wp-content/uploads/2024/04/dplnews_usuario-chatgpt-ia_mc23424-300x200.jpeg 300w, https://dplnews.com/wp-content/uploads/2024/04/dplnews_usuario-chatgpt-ia_mc23424-1024x683.jpeg 1024w, https://dplnews.com/wp-content/uploads/2024/04/dplnews_usuario-chatgpt-ia_mc23424-768x512.jpeg 768w, https://dplnews.com/wp-content/uploads/2024/04/dplnews_usuario-chatgpt-ia_mc23424-1536x1024.jpeg 1536w, https://dplnews.com/wp-content/uploads/2024/04/dplnews_usuario-chatgpt-ia_mc23424-2048x1365.jpeg 2048w" sizes="auto, (max-width: 2560px) 100vw, 2560px" title="Keir Starmer declara la guerra a chatbots de IA y redes sociales: propone límites de edad y freno al scroll infinito 5"></div>Keir Starmer, primer ministro del Reino Unido, anunció una serie de medidas para regular a los chatbots de IA para proteger a las infancias.]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="2560" height="1707" src="https://dplnews.com/wp-content/uploads/2024/04/dplnews_usuario-chatgpt-ia_mc23424-scaled.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews usuario chatgpt ia mc23424 scaled" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2024/04/dplnews_usuario-chatgpt-ia_mc23424-scaled.jpeg 2560w, https://dplnews.com/wp-content/uploads/2024/04/dplnews_usuario-chatgpt-ia_mc23424-300x200.jpeg 300w, https://dplnews.com/wp-content/uploads/2024/04/dplnews_usuario-chatgpt-ia_mc23424-1024x683.jpeg 1024w, https://dplnews.com/wp-content/uploads/2024/04/dplnews_usuario-chatgpt-ia_mc23424-768x512.jpeg 768w, https://dplnews.com/wp-content/uploads/2024/04/dplnews_usuario-chatgpt-ia_mc23424-1536x1024.jpeg 1536w, https://dplnews.com/wp-content/uploads/2024/04/dplnews_usuario-chatgpt-ia_mc23424-2048x1365.jpeg 2048w" sizes="auto, (max-width: 2560px) 100vw, 2560px" title="Keir Starmer declara la guerra a chatbots de IA y redes sociales: propone límites de edad y freno al scroll infinito 6"></div>
<p>Keir Starmer, primer ministro del Reino Unido, anunció una serie de nuevas y estrictas medidas destinadas a <strong>proteger a los niños</strong> de los peligros del mundo virtual, con un enfoque particular en la regulación de los proveedores de <em>chatbots </em>de <strong>Inteligencia Artificial (IA)</strong>.</p>



<p>En una carta dirigida a los padres del <a href="https://dplnews.com/reino-unido-sigue-los-pasos-de-australia-analiza-restriccion-de-redes-sociales-a-menores-de-edad/">Reino Unido</a>, Starmer afirmó que el gobierno intervendrá para <strong>exigir responsabilidades a las empresas de redes sociales</strong> y garantizar que el bienestar de los niños sea una prioridad, reforzando las leyes de seguridad en línea existentes para adaptarse al rápido ritmo del cambio tecnológico.</p>



<p>“Por supuesto, este no es un desafío nuevo. Los peligros de que los niños sean manipulados o se les anime a autolesionarse, el acoso y la misoginia&#8230; llevamos años hablando de ello.</p>



<p>“¿Qué han hecho las empresas de redes sociales al respecto? ¿Dónde está el gran impulso que les incentiva a poner orden?”, cuestionó el primer ministro.</p>



<p>El punto central de lo que señala el funcionario es el refuerzo de las <strong>leyes de seguridad en línea</strong> para asegurar que los proveedores de <em>chatbots </em>de IA estén &#8220;plenamente cubiertos&#8221; por las regulaciones.</p>



<p>Starmer aseguró que esta medida se basa en acciones previas, como la intervención gubernamental para obligar a X a corregir su <a href="https://dplnews.com/chatgpt-gemini-grok-terapia-ansiedad-trauma-conflictos/"><em>bot </em>Grok</a> para evitar la generación de imágenes sin consentimiento, y la penalización de la creación de imágenes íntimas sin consentimiento.</p>



<figure class="wp-block-embed aligncenter is-type-wp-embed is-provider-dpl-news wp-block-embed-dpl-news"><div class="wp-block-embed__wrapper">
<blockquote class="wp-embedded-content" data-secret="K7gDxNReUW"><a href="https://dplnews.com/reino-unido-grupo-para-impulsar-mujeres-tecnologia/">Reino Unido crea grupo para impulsar a las mujeres en la tecnología</a></blockquote><iframe loading="lazy" class="wp-embedded-content" sandbox="allow-scripts" security="restricted"  title="&#8220;Reino Unido crea grupo para impulsar a las mujeres en la tecnología&#8221; &#8212; DPL News" src="https://dplnews.com/reino-unido-grupo-para-impulsar-mujeres-tecnologia/embed/#?secret=YOcRobvKdB#?secret=K7gDxNReUW" data-secret="K7gDxNReUW" width="600" height="338" frameborder="0" marginwidth="0" marginheight="0" scrolling="no"></iframe>
</div></figure>



<p>De acuerdo con el primer ministro, es fundamental que las normas evolucionen para hacer frente a las nuevas amenazas que surgen constantemente.</p>



<p>Afirmó que además de los <em>chatbots</em>, el gobierno presentará al Parlamento nuevas competencias que le permitirían actuar rápidamente tras una consulta sobre redes sociales. Estas facultades incluirían establecer un<strong> límite de edad mínima para el acceso a las redes sociales</strong> en cuestión de meses, a diferencia de la lentitud observada en la aprobación de la Ley de Seguridad en Línea anterior.</p>



<p>También dijo que se buscará restringir funcionalidades específicas que se consideran perjudiciales para el bienestar de los niños y que los mantienen &#8220;enganchados&#8221; a sus pantallas, como el desplazamiento infinito o la reproducción automática.</p>



<p>Entre otras medidas destinadas a la protección infantil, el gobierno contempla la posibilidad de limitar el acceso a las VPN (Redes Privadas Virtuales) para los niños. El objetivo de esta restricción es dificultar que los menores eludan los límites de edad establecidos para los servicios de redes sociales o para ciertas funcionalidades.</p>



<p>El primer ministro enmarcó estas acciones como un esfuerzo por garantizar que cada niño tenga la oportunidad de triunfar, argumentando que las redes sociales están dañando actualmente su <strong>capacidad de atención</strong>, minando su confianza y afectando su<strong> salud mental</strong>.</p>



<p>Keir Starmer concluyó su mensaje con una promesa a los padres: “Traeremos nuevos poderes que nos darán la capacidad de acabar con los elementos adictivos de las redes sociales, detener la reproducción automática, el desplazamiento interminable que mantiene a nuestros niños enganchados a sus pantallas durante horas y evitar que los niños eludan los límites de edad. Y si eso significa una pelea con las grandes empresas de redes sociales, entonces que venga”.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">305842</post-id>	</item>
	</channel>
</rss>
