<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Inteligencia artficial generativa &#8211; DPL News</title>
	<atom:link href="https://dplnews.com/tag/inteligencia-artficial-generativa/feed/" rel="self" type="application/rss+xml" />
	<link>https://dplnews.com</link>
	<description>DPL News</description>
	<lastBuildDate>Mon, 11 Dec 2023 14:46:56 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://dplnews.com/wp-content/uploads/2020/03/logo-favicon-64x64-dplnews.png</url>
	<title>Inteligencia artficial generativa &#8211; DPL News</title>
	<link>https://dplnews.com</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">201771233</site>	<item>
		<title>La violencia digital: las modalidades están cambiando</title>
		<link>https://dplnews.com/la-violencia-digital-las-modalidades-estan-cambiando/</link>
		
		<dc:creator><![CDATA[Krista Monroy Mena]]></dc:creator>
		<pubDate>Mon, 11 Dec 2023 14:46:22 +0000</pubDate>
				<category><![CDATA[Cultura digital]]></category>
		<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[Editor's Picks]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[Mujer TIC]]></category>
		<category><![CDATA[OPINIÓN]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[X DPL DIGITAL SERIES]]></category>
		<category><![CDATA[deep fakes]]></category>
		<category><![CDATA[Inteligencia artficial generativa]]></category>
		<category><![CDATA[relevante]]></category>
		<category><![CDATA[violencia digital]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=216653</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="2232" height="1082" src="https://dplnews.com/wp-content/uploads/2023/10/dplnews-krista-monroy-mena-jb011023.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews krista monroy mena jb011023" decoding="async" fetchpriority="high" srcset="https://dplnews.com/wp-content/uploads/2023/10/dplnews-krista-monroy-mena-jb011023.png 2232w, https://dplnews.com/wp-content/uploads/2023/10/dplnews-krista-monroy-mena-jb011023-300x145.png 300w, https://dplnews.com/wp-content/uploads/2023/10/dplnews-krista-monroy-mena-jb011023-1024x496.png 1024w, https://dplnews.com/wp-content/uploads/2023/10/dplnews-krista-monroy-mena-jb011023-768x372.png 768w, https://dplnews.com/wp-content/uploads/2023/10/dplnews-krista-monroy-mena-jb011023-1536x745.png 1536w, https://dplnews.com/wp-content/uploads/2023/10/dplnews-krista-monroy-mena-jb011023-2048x993.png 2048w" sizes="(max-width: 2232px) 100vw, 2232px" title="La violencia digital: las modalidades están cambiando 1"></div>La Inteligencia Artificial (IA) Generativa consiste en modelos de aprendizaje profundo, la cual analiza grandes cantidades de datos, predice y genera información; esta nueva información da como resultado nuevos datos, como lo son textos, imágenes, audio o video. En otras palabras, la IA generativa crea contenidos en respuesta a órdenes proporcionadas por el usuario. Esta [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="2232" height="1082" src="https://dplnews.com/wp-content/uploads/2023/10/dplnews-krista-monroy-mena-jb011023.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews krista monroy mena jb011023" decoding="async" srcset="https://dplnews.com/wp-content/uploads/2023/10/dplnews-krista-monroy-mena-jb011023.png 2232w, https://dplnews.com/wp-content/uploads/2023/10/dplnews-krista-monroy-mena-jb011023-300x145.png 300w, https://dplnews.com/wp-content/uploads/2023/10/dplnews-krista-monroy-mena-jb011023-1024x496.png 1024w, https://dplnews.com/wp-content/uploads/2023/10/dplnews-krista-monroy-mena-jb011023-768x372.png 768w, https://dplnews.com/wp-content/uploads/2023/10/dplnews-krista-monroy-mena-jb011023-1536x745.png 1536w, https://dplnews.com/wp-content/uploads/2023/10/dplnews-krista-monroy-mena-jb011023-2048x993.png 2048w" sizes="(max-width: 2232px) 100vw, 2232px" title="La violencia digital: las modalidades están cambiando 2"></div>
<p>La Inteligencia Artificial (IA) Generativa consiste en modelos de aprendizaje profundo, la cual analiza grandes cantidades de datos, predice y genera información; esta nueva información da como resultado nuevos datos, como lo son textos, imágenes, audio o video. En otras palabras, la IA generativa crea contenidos en respuesta a órdenes proporcionadas por el usuario.</p>



<p>Esta mega tendencia está cambiando y transformando todo a su paso. En los últimos meses se ha dado un crecimiento exponencial en las personas que usan aplicaciones generadoras. Entre los principales factores de dicho incremento está la accesibilidad a este tipo de código, dado que en una aplicación puedes realizar esta generación de datos.</p>



<p>Dichas herramientas también están dando paso a una transformación y evolución de la violencia digital, dado que los métodos que se usan cada día se entrenan por los usuarios que los usan, no necesariamente para dichos fines, si no para mejorar sus fotografías, para realizar textos o audios, etcétera.&nbsp;</p>



<p>Por lo cual, prácticas como el acoso, intimidación, monitoreo, acecho, amenazas, suplantación, robo de identidad, entre otras, están en aumento; dado que las herramientas que proporciona la IAG favorecen la creación de contenidos digitales con la intención de dañar la integridad, seguridad y salud mental de las personas.</p>



<p>Por ejemplo, la creación de <em>bots</em> con el objetivo de enviar mensajes de amenaza o manipulación, uso de generadores de imágenes con la finalidad de manipular su imagen corporal, suplantación de rostros; uso de generadores de audio para falsear voces; generadores de video para suplantar la identidad de una persona; todo lo anterior con el objetivo de dañar la integridad de sus víctimas.</p>



<p>El uso de estas herramientas puede permitir a los atacantes emplear mecanismos automatizados y sostenidos en la víctima.&nbsp;</p>



<p>La violencia digital no es algo que surja con la llegada de la IA, pero sí crea un ambiente donde se pueda defraudar en gran medida y todos podamos ser blancos, como la creación de noticias falsas, discursos de odio, hackear cuentas y acechar, crear desinformación, amenazar, etcétera<em>.&nbsp;</em></p>



<p>Una de las prácticas que se escucha en este momento y se escuchará en un futuro próximo es el <em>deepfake</em>, es decir, usar la IA para superponer la identidad de la persona, ya sea en imagen, audio o video, con la finalidad de extorsionar, burlarse, acosar, venta de contenidos, venganza, manipulación, etcétera<em>.&nbsp;</em></p>



<p>Dicha práctica tuvo <strong>una tasa de crecimiento de 464 por ciento,</strong> datos en comparación de 2022 al 2023. <strong>De 2019 a 2023 el </strong><strong><em>deepfake</em></strong><strong> tuvo un crecimiento de 550 por ciento,</strong> tan solo de videos.&nbsp;</p>



<p>Los números no mienten, las mujeres son las más susceptibles a sufrir dichas prácticas, dado que <strong>77 por ciento </strong>del <em>deepfake </em>es dirigido para dañar la integridad de la mujer.</p>



<p>Debemos recordar que la violencia digital también se vive en las escuelas, donde está siendo utilizada la IA para el <em>ciberbullying</em> y el ciberacoso, aunque a la par se están creando herramientas de IA generativas para ayudar a niños y niñas a la prevención y poner un alto a esta violencia digital en las aulas, aunque siguen siendo escasas en comparación con la gran cantidad de aplicaciones generadoras.</p>



<p>En este sentido, un análisis realizado por la Internet Watch Foundation encontró <strong>20,254 imágenes generadas por IA</strong> que fueron publicadas en un foro de la <em>web</em> oscura, en un lapso de un mes en 2023, de las cuales 9,146 contenían imágenes de niños pero que no presentaban características criminales.</p>



<p>Pero <strong>11,108</strong> tenían la probabilidad de ser criminales, de las cuales <strong>23 por ciento</strong> fueron catalogadas como pseudo fotografías criminales y <strong>4 por ciento fueron catalogadas como imágenes criminales prohibidas</strong>.</p>



<p>La violencia digital no sólo se queda en la pantalla o en el medio electrónico. Esta práctica afecta la integridad, la salud mental y física de la persona que lo vive y de quien le rodea, dado que puede llegar a generar ataques de pánico, ansiedad, problemas de autoestima, afectar la realidad en la que vive, te aparta de amigos, trabajo, familia e intereses personales, así como la vulneración de los derechos fundamentales como la privacidad, protección de datos, por citar algunos ejemplos.</p>



<p>Con la llegada de algoritmos entrenados, aplicaciones que se basan en redes neuronales que están programadas para generar contenidos sólo de mujeres y niñas, muestra la relevancia de incentivar la ética, el panorama de los sesgos algorítmicos que se tiene en la actualidad y su necesidad de minimizarlos, y el fomento de la gobernanza en la IA.</p>



<p>El aumento de la violencia digital en la era de la IA no es algo que se debe tomar a la ligera, ya que esta práctica desincentiva a las personas al uso de herramientas TIC, poniendo un mayor énfasis en las mujeres, niñas y niños, quienes son los blancos de dichas prácticas, lo cual puede aumentar más la brecha digital de género.&nbsp;</p>



<p>Recordemos que contrarrestar la violencia digital es tarea de todos.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">216653</post-id>	</item>
		<item>
		<title>Biden obtiene el compromiso de 7 empresas para construir una IA segura</title>
		<link>https://dplnews.com/biden-obtiene-el-compromiso-de-7-empresas-para-construir-una-ia-segura/</link>
		
		<dc:creator><![CDATA[Efrén Páez Jiménez]]></dc:creator>
		<pubDate>Thu, 17 Aug 2023 20:06:28 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[Estados Unidos]]></category>
		<category><![CDATA[Inteligencia artficial]]></category>
		<category><![CDATA[Inteligencia artficial generativa]]></category>
		<category><![CDATA[relevante tech]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=204492</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="2560" height="1707" src="https://dplnews.com/wp-content/uploads/2023/08/dplnews_inteligencia-artificial-generativa_mc17823-scaled.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews inteligencia artificial generativa mc17823 scaled" decoding="async" srcset="https://dplnews.com/wp-content/uploads/2023/08/dplnews_inteligencia-artificial-generativa_mc17823-scaled.jpeg 2560w, https://dplnews.com/wp-content/uploads/2023/08/dplnews_inteligencia-artificial-generativa_mc17823-300x200.jpeg 300w, https://dplnews.com/wp-content/uploads/2023/08/dplnews_inteligencia-artificial-generativa_mc17823-1024x683.jpeg 1024w, https://dplnews.com/wp-content/uploads/2023/08/dplnews_inteligencia-artificial-generativa_mc17823-768x512.jpeg 768w, https://dplnews.com/wp-content/uploads/2023/08/dplnews_inteligencia-artificial-generativa_mc17823-1536x1024.jpeg 1536w, https://dplnews.com/wp-content/uploads/2023/08/dplnews_inteligencia-artificial-generativa_mc17823-2048x1365.jpeg 2048w" sizes="(max-width: 2560px) 100vw, 2560px" title="Biden obtiene el compromiso de 7 empresas para construir una IA segura 3"></div>Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, compañías líderes en el desarrollo de soluciones basadas en Inteligencia Artificial (IA), adoptaron una serie de compromisos con el gobierno estadounidense para “ayudar a avanzar hacia un desarrollo seguro, protegido y transparente de la tecnología de IA”, anunció la Casa Blanca. En un comunicado, la Casa Blanca [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="2560" height="1707" src="https://dplnews.com/wp-content/uploads/2023/08/dplnews_inteligencia-artificial-generativa_mc17823-scaled.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews inteligencia artificial generativa mc17823 scaled" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2023/08/dplnews_inteligencia-artificial-generativa_mc17823-scaled.jpeg 2560w, https://dplnews.com/wp-content/uploads/2023/08/dplnews_inteligencia-artificial-generativa_mc17823-300x200.jpeg 300w, https://dplnews.com/wp-content/uploads/2023/08/dplnews_inteligencia-artificial-generativa_mc17823-1024x683.jpeg 1024w, https://dplnews.com/wp-content/uploads/2023/08/dplnews_inteligencia-artificial-generativa_mc17823-768x512.jpeg 768w, https://dplnews.com/wp-content/uploads/2023/08/dplnews_inteligencia-artificial-generativa_mc17823-1536x1024.jpeg 1536w, https://dplnews.com/wp-content/uploads/2023/08/dplnews_inteligencia-artificial-generativa_mc17823-2048x1365.jpeg 2048w" sizes="auto, (max-width: 2560px) 100vw, 2560px" title="Biden obtiene el compromiso de 7 empresas para construir una IA segura 4"></div>
<p>Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, compañías líderes en el desarrollo de soluciones basadas en Inteligencia Artificial (IA), adoptaron una<strong> </strong>serie de<strong> </strong>compromisos con el gobierno estadounidense para<strong> “ayudar a avanzar hacia un desarrollo seguro, protegido y transparente de la tecnología de IA”</strong>, anunció la Casa Blanca.</p>



<p>En un comunicado, la Casa Blanca señaló que la administración del presidente <a href="https://dplnews.com/biden-advierte-peligros-de-la-ia-sin-las-medidas-de-seguridad-adecuadas/">Joe Biden obtuvo el “compromiso voluntario” de estas siete compañías</a> para garantizar que el desarrollo de IA se realice de forma segura, sin comprometer los derechos y la seguridad de los estadounidenses. <strong>Los compromisos se enmarcan en tres principios: seguridad, protección y confianza.</strong></p>



<p>Aunque la IA lleva en desarrollo varias décadas, la presentación de productos de IA Generativa como ChatGPT y DALL-E, atrajeron la atención del público hacia esta nueva tecnología con sentimientos encontrados entre asombro y preocupación, tanto por el <strong>impacto en la productividad que tendrán estas herramientas, pero también el riesgo por su posible papel en el desempleo y la desinformación</strong>.</p>



<p class="has-background" style="background-color:#fff6f9"><strong>Recomendamos: </strong><a href="https://dplnews.com/reconocimiento-facial-respalda-el-sesgo-algoritmico-expertos/"><strong>Reconocimiento facial respalda el sesgo algorítmico: expertos</strong></a></p>



<p>En ese sentido, el rápido desarrollo de la IA ha provocado un debate sobre el mejor enfoque de regulación que garantice la seguridad en el uso de esta tecnología. <strong>Eric Schmidt, exCEO de Google, se había pronunciado por la </strong><a href="https://dplnews.com/exceo-de-google-propone-autorregulacion-en-inteligencia-artificial/"><strong>adopción de un enfoque de autorregulación de IA</strong></a>, aunque la Unión Europea ya entró en la última fase para presentar una <a href="https://dplnews.com/europa-da-los-primeros-pasos-para-regular-inteligencia-artificial-y-proteger-derechos-humanos/">ley que restringe los usos de IA donde presenta un mayor riesgo</a>.</p>



<p>Entre los compromisos anunciados entre la Casa Blanca y las compañías participantes se encuentran: garantizar que los productos sean seguros antes de presentarlos al público; sistemas de desarrollo que priorizan la seguridad, y ganar la confianza del público.</p>



<p>Bajo el primer eje, las empresas desarrolladoras se comprometieron a <a href="https://dplnews.com/inteligencia-artificial-la-buena-regulacion-promovera-innovacion-y-anticipara-sus-riesgos/"><strong>realizar pruebas de seguridad internas y externas de sus sistemas de IA</strong></a><strong> antes de su lanzamiento</strong>, las cuales se llevarán a cabo por “expertos independientes”. Asimismo, las compañías <strong>agregarán mecanismos para facilitar el descubrimiento y la notificación de vulnerabilidades en sus sistemas de IA por parte de terceros</strong>, para garantizar la identificación de problemas aun cuando el producto haya sido lanzado al mercado.</p>



<p>Otros compromisos incluyen también el desarrollo de mecanismos técnicos sólidos para garantizar que los <strong>usuarios sepan cuándo se genera contenido mediante IA</strong>, como un sistema de marcas de agua digital.</p>



<p>También asumieron la <strong>publicación de un informe sobre las capacidades, limitaciones y áreas de uso apropiado e inapropiado de sus sistemas de IA</strong>. Este informe, según la Casa Blanca, cubrirá tanto los riesgos de seguridad como los riesgos sociales y los efectos sobre la equidad y el sesgo. Además, las compañías se comprometieron a compartir información en la industria y con los gobiernos, la sociedad civil y el mundo académico sobre la gestión de los riesgos de la IA.</p>



<p>Al tratarse de “compromisos voluntarios” asumidos por las empresas, estas medidas son parte de un enfoque autorregulatorio entre las empresas involucradas. En ese sentido, <strong>no está claro cómo o quién estará a cargo de revisar su cumplimiento</strong>, y qué significa para el resto de las compañías involucradas en el desarrollo que no forman parte de los compromisos anunciados.</p>



<p>Adicionalmente, la Casa Blanca informó que se buscará <strong>reforzar el trabajo con aliados y socios para establecer un marco internacional sólido para </strong><a href="https://dplnews.com/gobiernos-en-alerta-por-los-posibles-riesgos-de-la-ia/"><strong>regir el desarrollo y el uso de la IA</strong></a><strong>.</strong> Indicó que también se asumieron compromisos voluntarios con los gobiernos de Australia, Brasil, Canadá, Chile, Francia, Alemania, India, Israel, Italia, Japón, Kenia, México, Países Bajos, Nueva Zelanda, Nigeria, Filipinas, Singapur, Corea del Sur, Emiratos Árabes Unidos y Reino Unido.</p>



<p>En junio pasado, el líder de la mayoría del Senado de Estados Unidos, Chuck Schumer, anunció que se iniciarían las<strong> labores de redacción de una ley para regular la IA,</strong> entre las cuales se encuentran nueve paneles para identificar y discutir las cuestiones complejas como la forma de proteger a los trabajadores, la seguridad nacional, los derechos de autor y la <a href="https://dplnews.com/llaman-a-mitigar-riesgo-potencial-de-extincion-de-la-ia-como-las-pandemias-y-la-guerra-nuclear/">defensa ante “escenarios del fin del mundo</a>”.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">204492</post-id>	</item>
	</channel>
</rss>
