<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>contenido nocivo &#8211; DPL News</title>
	<atom:link href="https://dplnews.com/tag/contenido-nocivo/feed/" rel="self" type="application/rss+xml" />
	<link>https://dplnews.com</link>
	<description>DPL News</description>
	<lastBuildDate>Mon, 13 Dec 2021 17:06:30 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://dplnews.com/wp-content/uploads/2020/03/logo-favicon-64x64-dplnews.png</url>
	<title>contenido nocivo &#8211; DPL News</title>
	<link>https://dplnews.com</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">201771233</site>	<item>
		<title>Meta crea sistema de IA de rápido aprendizaje para frenar contenido nocivo</title>
		<link>https://dplnews.com/meta-crea-sistema-de-ia-de-rapido-aprendizaje-para-frenar-contenido-nocivo/</link>
		
		<dc:creator><![CDATA[Raúl Parra]]></dc:creator>
		<pubDate>Mon, 13 Dec 2021 17:06:15 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[Aprendizaje automático]]></category>
		<category><![CDATA[contenido dañino]]></category>
		<category><![CDATA[contenido nocivo]]></category>
		<category><![CDATA[discurso de odio]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[Few Shot Learner]]></category>
		<category><![CDATA[FSL]]></category>
		<category><![CDATA[Meta]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=128650</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1245" height="700" src="https://dplnews.com/wp-content/uploads/2021/12/dplnews_Few-Shot-Learner-meta-facebook_mc131221.webp" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews Few Shot Learner meta facebook mc131221" decoding="async" fetchpriority="high" srcset="https://dplnews.com/wp-content/uploads/2021/12/dplnews_Few-Shot-Learner-meta-facebook_mc131221.webp 1245w, https://dplnews.com/wp-content/uploads/2021/12/dplnews_Few-Shot-Learner-meta-facebook_mc131221-300x169.webp 300w, https://dplnews.com/wp-content/uploads/2021/12/dplnews_Few-Shot-Learner-meta-facebook_mc131221-1024x576.webp 1024w, https://dplnews.com/wp-content/uploads/2021/12/dplnews_Few-Shot-Learner-meta-facebook_mc131221-768x432.webp 768w, https://dplnews.com/wp-content/uploads/2021/12/dplnews_Few-Shot-Learner-meta-facebook_mc131221-696x391.webp 696w, https://dplnews.com/wp-content/uploads/2021/12/dplnews_Few-Shot-Learner-meta-facebook_mc131221-1068x600.webp 1068w, https://dplnews.com/wp-content/uploads/2021/12/dplnews_Few-Shot-Learner-meta-facebook_mc131221-747x420.webp 747w" sizes="(max-width: 1245px) 100vw, 1245px" title="Meta crea sistema de IA de rápido aprendizaje para frenar contenido nocivo 1"></div>Meta creó un nuevo sistema de Inteligencia Artificial (IA) que usa el “aprendizaje de pocas oportunidades” en aras de combatir el creciente contenido perjudicial que prolifera en sus plataformas, como el discurso de odio. La gigante tecnológica estadounidense informó que el contenido dañino continúa evolucionando rápidamente, y ha sido impulsado por acontecimientos recientes o personas [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1245" height="700" src="https://dplnews.com/wp-content/uploads/2021/12/dplnews_Few-Shot-Learner-meta-facebook_mc131221.webp" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews Few Shot Learner meta facebook mc131221" decoding="async" srcset="https://dplnews.com/wp-content/uploads/2021/12/dplnews_Few-Shot-Learner-meta-facebook_mc131221.webp 1245w, https://dplnews.com/wp-content/uploads/2021/12/dplnews_Few-Shot-Learner-meta-facebook_mc131221-300x169.webp 300w, https://dplnews.com/wp-content/uploads/2021/12/dplnews_Few-Shot-Learner-meta-facebook_mc131221-1024x576.webp 1024w, https://dplnews.com/wp-content/uploads/2021/12/dplnews_Few-Shot-Learner-meta-facebook_mc131221-768x432.webp 768w, https://dplnews.com/wp-content/uploads/2021/12/dplnews_Few-Shot-Learner-meta-facebook_mc131221-696x391.webp 696w, https://dplnews.com/wp-content/uploads/2021/12/dplnews_Few-Shot-Learner-meta-facebook_mc131221-1068x600.webp 1068w, https://dplnews.com/wp-content/uploads/2021/12/dplnews_Few-Shot-Learner-meta-facebook_mc131221-747x420.webp 747w" sizes="(max-width: 1245px) 100vw, 1245px" title="Meta crea sistema de IA de rápido aprendizaje para frenar contenido nocivo 2"></div>
<p class=" eplus-wrapper"><a href="https://dplnews.com/tag/meta/"><strong>Meta</strong></a><strong> </strong>creó un nuevo sistema de <strong>Inteligencia Artificial</strong> (IA) que usa el “aprendizaje de pocas oportunidades” en aras de combatir el creciente contenido perjudicial que prolifera en sus plataformas, como el discurso de odio.</p>



<p class=" eplus-wrapper">La gigante tecnológica estadounidense informó que el contenido dañino continúa evolucionando rápidamente, y ha sido impulsado por acontecimientos recientes o personas que buscan nuevas formas de evadir sus sistemas, por lo que <strong>es crucial que los sistemas de IA evolucionen junto con él</strong>.</p>



<p class=" eplus-wrapper">Sin embargo, aclaró que por lo regular se necesitan varios meses para recopilar y etiquetar miles, incluso millones, de ejemplos necesarios para capacitar a cada sistema de IA individual para detectar un nuevo tipo de contenido.</p>



<p class=" eplus-wrapper">Para abordar este asunto, Meta creó el nuevo sistema <strong>Few Shot Learner (FSL)</strong>, o una tecnología de Inteligencia Artificial que puede adaptarse para tomar medidas sobre tipos nuevos o en evolución de contenido dañino en cuestión de semanas en lugar de meses.</p>



<p class=" eplus-wrapper">Este nuevo sistema de IA utiliza un método llamado “aprendizaje de pocas oportunidades”, en el que los modelos comienzan con una comprensión general de muchos temas diferentes y luego usan muchos menos ejemplos etiquetados, e incluso ninguno, para aprender nuevas tareas.</p>



<p class=" eplus-wrapper"><strong>FSL puede emplearse en más de 100 idiomas y aprende de diferentes tipos de datos, como imágenes y texto</strong>. Meta detalló que la nueva tecnología le ayudará a aumentar los métodos con los que cuenta para combatir el contenido perjudicial.</p>



<p class=" eplus-wrapper">La compañía detalló que FSL funciona en tres escenarios distintos, cada uno de los cuales requiere de diferentes niveles de ejemplos etiquetados:</p>



<p class=" eplus-wrapper">1. <strong>Zero-shot</strong>: descripciones de políticas sin ejemplos.&nbsp;</p>



<p class=" eplus-wrapper">2.<strong> Few-shot with demonstration:</strong> descripciones de políticas con un pequeño conjunto de ejemplos, menor a 50.&nbsp;</p>



<p class=" eplus-wrapper">3.<strong> Low-shot with fine-tuning:</strong> los desarrolladores de Aprendizaje Automático pueden ajustar el modelo base de FSL con un número reducido de ejemplos de entrenamiento.</p>



<p class=" eplus-wrapper">Meta informó que probó FSL en algunos hechos recientes, como la identificación de contenido que comparte información engañosa o sensacionalista sobre la vacunación contra la Covid-19. Mientras que, en una tarea separada, el nuevo sistema de IA mejoró un clasificador existente que marca el contenido que se aproxima a incitar a la violencia.</p>



<p class=" eplus-wrapper">Por otro lado, Meta detectó que FSL también ayudó a reducir la prevalencia de otro contenido nocivo como lo es el discurso de odio. Y finalmente advirtió que espera que, con el tiempo, este sistema de IA mejore el rendimiento de todos sus sistemas de Inteligencia Artificial de integridad al permitirles aprovechar una base de conocimiento y una columna vertebral única para hacer frente a muchos tipos diferentes de violaciones.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">128650</post-id>	</item>
		<item>
		<title>La IA de Facebook no es tan confiable para eliminar contenido de odio y violencia</title>
		<link>https://dplnews.com/la-ia-de-facebook-no-es-tan-confiable-para-eliminar-contenido-de-odio-y-violencia/</link>
		
		<dc:creator><![CDATA[Valeria Romero]]></dc:creator>
		<pubDate>Tue, 19 Oct 2021 16:41:15 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[Internet]]></category>
		<category><![CDATA[Redes sociales]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[contenido dañino]]></category>
		<category><![CDATA[contenido nocivo]]></category>
		<category><![CDATA[contenido ofensivo]]></category>
		<category><![CDATA[contenido violento]]></category>
		<category><![CDATA[discurso de odio]]></category>
		<category><![CDATA[eliminación de contenido]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[odio en Internet]]></category>
		<category><![CDATA[Racismo]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=121892</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1092" height="735" src="https://dplnews.com/wp-content/uploads/2021/07/dplnews_facebook_mc290721.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews facebook mc290721" decoding="async" srcset="https://dplnews.com/wp-content/uploads/2021/07/dplnews_facebook_mc290721.jpeg 1092w, https://dplnews.com/wp-content/uploads/2021/07/dplnews_facebook_mc290721-300x202.jpeg 300w, https://dplnews.com/wp-content/uploads/2021/07/dplnews_facebook_mc290721-1024x689.jpeg 1024w, https://dplnews.com/wp-content/uploads/2021/07/dplnews_facebook_mc290721-768x517.jpeg 768w, https://dplnews.com/wp-content/uploads/2021/07/dplnews_facebook_mc290721-696x468.jpeg 696w, https://dplnews.com/wp-content/uploads/2021/07/dplnews_facebook_mc290721-1068x719.jpeg 1068w, https://dplnews.com/wp-content/uploads/2021/07/dplnews_facebook_mc290721-624x420.jpeg 624w" sizes="(max-width: 1092px) 100vw, 1092px" title="La IA de Facebook no es tan confiable para eliminar contenido de odio y violencia 3"></div>En un nuevo capítulo de la polémica serie de documentos de Facebook filtrados por el diario estadounidense The Wall Street Journal (WSJ), se destaca lo difícil que es para la red social crear sistemas de Inteligencia Artificial (IA) que detecten de forma confiable el contenido que infringe sus reglas. De acuerdo con el informe, los [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1092" height="735" src="https://dplnews.com/wp-content/uploads/2021/07/dplnews_facebook_mc290721.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews facebook mc290721" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2021/07/dplnews_facebook_mc290721.jpeg 1092w, https://dplnews.com/wp-content/uploads/2021/07/dplnews_facebook_mc290721-300x202.jpeg 300w, https://dplnews.com/wp-content/uploads/2021/07/dplnews_facebook_mc290721-1024x689.jpeg 1024w, https://dplnews.com/wp-content/uploads/2021/07/dplnews_facebook_mc290721-768x517.jpeg 768w, https://dplnews.com/wp-content/uploads/2021/07/dplnews_facebook_mc290721-696x468.jpeg 696w, https://dplnews.com/wp-content/uploads/2021/07/dplnews_facebook_mc290721-1068x719.jpeg 1068w, https://dplnews.com/wp-content/uploads/2021/07/dplnews_facebook_mc290721-624x420.jpeg 624w" sizes="auto, (max-width: 1092px) 100vw, 1092px" title="La IA de Facebook no es tan confiable para eliminar contenido de odio y violencia 4"></div>
<p class="eplus-w8HSjr">En un nuevo capítulo de la polémica serie de documentos de <strong><a href="https://dplnews.com/tag/facebook/">Facebook</a> </strong>filtrados por el diario estadounidense <em>The Wall Street Journal</em> (WSJ), se destaca lo difícil que es para la red social crear sistemas de <strong>Inteligencia Artificial (IA) </strong>que detecten de forma confiable el contenido que infringe sus reglas.</p>



<p class="eplus-jUM0Tj">De acuerdo con el informe, los algoritmos de Facebook tienen problemas para identificar contenido como <strong>videos de disparos grabados en primera persona, discursos racistas, accidentes automovilísticos</strong> con &#8220;desmembramiento y entrañas visibles&#8221;, amenazas a niños transgénero e incluso <strong>peleas de gallos.</strong></p>



<p class="eplus-Pfup37">Un ejemplo es el tiroteo de <a href="https://dplnews.com/australia-bloqueara-sitios-web-que-alojen-ataques-terroristas-transmitidos-en-vivo/">Christchurch, en Nueva Zelanda</a>, que fue grabado en directo por el perpetrador en primera persona y se mantuvo en línea durante varias horas.</p>



<p class="eplus-f7abeQ">Algunos ingenieros de Facebook estiman que el uso de esta tecnología apenas logra borrar de la red entre el<strong> 3 y el 5 por ciento del contenido violento o de odio.</strong> Y pronostican que, a menos que haya un cambio de estrategia, “será muy difícil que la empresa logre subir estas cifras más allá del 10 al 20 por ciento en el corto o mediano plazo”.</p>



<p class="eplus-q2ktyC">También aseguran que Facebook está haciendo un mal uso de las herramientas de Aprendizaje Automático, dado que estas apenas funcionan relativamente bien en áreas como el <em>spam</em>, pero <strong>se quedan cortos en otras más sensibles</strong> y controvertidas que requieren la atención humana con el mismo contexto cultural.</p>



<h4 class="eplus-G013N3 wp-block-heading"><strong>La respuesta de Facebook</strong></h4>



<p class="eplus-Vjs5vW">Guy Rosen, vicepresidente de Integridad de Facebook, respondió al informe diciendo que los documentos están desactualizados y confirmó que<strong> casi un 50 por ciento del contenido problemático en la red social ha sido eliminado por la IA</strong>, incluso antes de que los usuarios lo denunciaran.</p>



<p class="eplus-XS8t3S">Destaca que su estrategia de moderación se basa en la “prevalencia”, la cantidad de contenido de odio que las personas visualizan en la plataforma, más que en la eliminación como tal.</p>



<p class="eplus-iJ9NaB">“La prevalencia es la métrica más importante y no representa lo que detectamos, sino lo que nos perdimos y lo que la gente vio, y es la métrica principal de la que somos responsables”, dijo Rosen. &#8220;Hemos tenido éxito en moverlo hacia abajo, y es en lo que realmente nos enfocamos&#8221;.</p>



<p class="eplus-T0CU24">Es decir, que cuando los algoritmos de Facebook no están completamente seguros de que un contenido infringe las reglas, el material sospechoso <strong>se muestra con menos frecuencia a los usuarios. </strong>Pero las cuentas que lo publican quedan impunes.</p>



<p class="eplus-zgsxBb">El WSJ también denuncia que debido a que la compañía apoya ampliamente el uso de su tecnología de IA desde 2019, <strong>prescindió de parte del equipo humano </strong>que se encargaba de revisar el contenido para ahorrar costos. La revisión humana costaba 2 millones de dólares a la semana ó 104 millones al año, según el documento interno.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">121892</post-id>	</item>
		<item>
		<title>Cinco reglas del regulador británico para proteger a usuarios de video</title>
		<link>https://dplnews.com/cinco-reglas-del-regulador-britanico-para-proteger-a-usuarios-de-video/</link>
		
		<dc:creator><![CDATA[Alejandro González]]></dc:creator>
		<pubDate>Tue, 12 Oct 2021 17:17:02 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[Internet]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[contenido dañino]]></category>
		<category><![CDATA[contenido nocivo]]></category>
		<category><![CDATA[contenido ofensivo]]></category>
		<category><![CDATA[contenido tóxico]]></category>
		<category><![CDATA[Ofcom]]></category>
		<category><![CDATA[plataformas de video]]></category>
		<category><![CDATA[protección de usuarios]]></category>
		<category><![CDATA[Reino Unido]]></category>
		<category><![CDATA[transmisión de video]]></category>
		<category><![CDATA[videos]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=121009</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="980" height="653" src="https://dplnews.com/wp-content/uploads/2021/10/dplnews_usuaria-movil-video_mc121021.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews usuaria movil video mc121021" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2021/10/dplnews_usuaria-movil-video_mc121021.jpeg 980w, https://dplnews.com/wp-content/uploads/2021/10/dplnews_usuaria-movil-video_mc121021-300x200.jpeg 300w, https://dplnews.com/wp-content/uploads/2021/10/dplnews_usuaria-movil-video_mc121021-768x512.jpeg 768w, https://dplnews.com/wp-content/uploads/2021/10/dplnews_usuaria-movil-video_mc121021-696x464.jpeg 696w, https://dplnews.com/wp-content/uploads/2021/10/dplnews_usuaria-movil-video_mc121021-630x420.jpeg 630w" sizes="auto, (max-width: 980px) 100vw, 980px" title="Cinco reglas del regulador británico para proteger a usuarios de video 5"></div>El regulador de las telecomunicaciones en el Reino Unido, Ofcom, estableció una guía para que las plataformas de video protejan a sus usuarios de contenidos que pudieran resultar dañinos. De acuerdo con una investigación hecha por Ofcom, un tercio de los usuarios del Reino Unido dijo haber presenciado o experimentado contenido de odio, en tanto [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="980" height="653" src="https://dplnews.com/wp-content/uploads/2021/10/dplnews_usuaria-movil-video_mc121021.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews usuaria movil video mc121021" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2021/10/dplnews_usuaria-movil-video_mc121021.jpeg 980w, https://dplnews.com/wp-content/uploads/2021/10/dplnews_usuaria-movil-video_mc121021-300x200.jpeg 300w, https://dplnews.com/wp-content/uploads/2021/10/dplnews_usuaria-movil-video_mc121021-768x512.jpeg 768w, https://dplnews.com/wp-content/uploads/2021/10/dplnews_usuaria-movil-video_mc121021-696x464.jpeg 696w, https://dplnews.com/wp-content/uploads/2021/10/dplnews_usuaria-movil-video_mc121021-630x420.jpeg 630w" sizes="auto, (max-width: 980px) 100vw, 980px" title="Cinco reglas del regulador británico para proteger a usuarios de video 6"></div>
<p class="eplus-xTta6h">El regulador de las telecomunicaciones en el Reino Unido, <a href="https://dplnews.com/tag/ofcom/">Ofcom</a>, estableció una guía para que las plataformas de video protejan a sus usuarios de contenidos que pudieran resultar dañinos.</p>



<p class="eplus-0J0K6K">De acuerdo con una investigación hecha por Ofcom, un tercio de los usuarios del Reino Unido dijo haber presenciado o experimentado <a href="https://dplnews.com/reino-unido-pretende-multar-a-quienes-permitan-contenido-danino-en-linea/">contenido de odio, en tanto que una cuarta parte afirma haber estado expuesta a contenido violento</a> o perturbador.</p>



<p class="eplus-UCvWKI">La misma investigación revela que uno de cada cinco usuarios de Internet que consumen video ha estado expuesto a videos o contenido que fomenta el racismo.</p>



<ol class="eplus-MBmPbg wp-block-list"><li>Proporcione reglas claras sobre la carga de contenido. Subir contenido relacionado con terrorismo, material de abuso sexual infantil o racismo es un delito. Las plataformas deben tener términos y condiciones claros y visibles que lo prohíban, y hacerlos cumplir de manera efectiva.</li><li>Tenga procesos sencillos de presentación de informes y quejas. Las empresas deben implementar herramientas que permitan a los usuarios marcar videos dañinos fácilmente.</li><li>Deben indicar la rapidez con la que responderán y estar abiertos a cualquier acción que se tome.</li><li>Los proveedores deben ofrecer una ruta para que los usuarios planteen formalmente sus inquietudes con la plataforma y cuestionen sus decisiones. Esto es vital para proteger los derechos e intereses de los usuarios que cargan y comparten contenido.</li><li>Restrinja el acceso a sitios para adultos. Los proveedores de video que alojan material pornográfico deben contar con una sólida verificación de edad para proteger a los menores de 18 años de acceder a dicho material.</li></ol>



<pre class="wp-block-verse eplus-RKQLMc"><strong>Te puede interesar: ​​</strong><a href="https://dplnews.com/lo-vi-en-tiktok-como-la-red-social-china-esta-cambiando-la-cultura/"><strong>“Lo vi en TikTok”: ¿cómo la red social china está cambiando la cultura?</strong></a></pre>



<p class="eplus-BBt2Zl">La Ofcom señaló que, de acuerdo con la Internet Watch Foundation, hubo un aumento del 77 por ciento en la cantidad de contenido de abuso &#8220;autogenerado&#8221; en 2020. Dijo que los proveedores de servicios de video para adultos conllevan un mayor riesgo de material de abuso sexual infantil y un aumento en los sitios de suscripción directa a los fanáticos que se especializan en contenido generado por el usuario.</p>



<p class="eplus-7nQyfr">“El contenido para adultos potencialmente ha hecho que este riesgo sea más pronunciado. Dado este mayor riesgo, esperamos que los procesos de registro de creadores de video y las comprobaciones posteriores sean lo suficientemente sólidos como para reducir significativamente el riesgo de que se cargue y comparta material de abuso sexual infantil en sus plataformas.</p>



<p class="eplus-T3MIUl">“Durante los próximos 12 meses, también daremos prioridad a abordar el odio y el terror en línea; garantizar una experiencia apropiada para la edad en plataformas populares entre los menores de 18 años; sentar las bases para la verificación de la edad en sitios para adultos; y garantizar que los procesos de los proveedores de video para informar sobre contenido dañino sean efectivos”, señaló la Ofcom.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">121009</post-id>	</item>
		<item>
		<title>Rusia ralentiza Twitter por no eliminar publicaciones con ‘contenido ilegal’</title>
		<link>https://dplnews.com/rusia-ralentiza-twitter-por-no-eliminar-publicaciones-con-contenido-ilegal/</link>
		
		<dc:creator><![CDATA[Itzel Carreño]]></dc:creator>
		<pubDate>Thu, 11 Mar 2021 13:04:28 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[Redes sociales]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[contenido dañino]]></category>
		<category><![CDATA[contenido nocivo]]></category>
		<category><![CDATA[moderación de contenido]]></category>
		<category><![CDATA[ralentización]]></category>
		<category><![CDATA[Roskomnadzor]]></category>
		<category><![CDATA[Rusia]]></category>
		<category><![CDATA[Twitter]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=88424</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="700" height="394" src="https://dplnews.com/wp-content/uploads/2021/03/dplnews_rusiausuariomovil_mc110321.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews rusiausuariomovil mc110321" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2021/03/dplnews_rusiausuariomovil_mc110321.jpg 700w, https://dplnews.com/wp-content/uploads/2021/03/dplnews_rusiausuariomovil_mc110321-300x169.jpg 300w, https://dplnews.com/wp-content/uploads/2021/03/dplnews_rusiausuariomovil_mc110321-696x392.jpg 696w" sizes="auto, (max-width: 700px) 100vw, 700px" title="Rusia ralentiza Twitter por no eliminar publicaciones con ‘contenido ilegal’ 7"></div>El gobierno de Rusia anunció que está imponiendo restricciones a la red social Twitter por no eliminar el contenido ilegal de su plataforma. El Servicio Federal de Supervisión de Comunicaciones, Tecnología de la Información y Comunicaciones Masivas, conocido como Roskomnadzor, dijo que está reduciendo la velocidad de Twitter. El organismo de control de las comunicaciones [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="700" height="394" src="https://dplnews.com/wp-content/uploads/2021/03/dplnews_rusiausuariomovil_mc110321.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews rusiausuariomovil mc110321" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2021/03/dplnews_rusiausuariomovil_mc110321.jpg 700w, https://dplnews.com/wp-content/uploads/2021/03/dplnews_rusiausuariomovil_mc110321-300x169.jpg 300w, https://dplnews.com/wp-content/uploads/2021/03/dplnews_rusiausuariomovil_mc110321-696x392.jpg 696w" sizes="auto, (max-width: 700px) 100vw, 700px" title="Rusia ralentiza Twitter por no eliminar publicaciones con ‘contenido ilegal’ 8"></div>
<p>El gobierno de Rusia anunció que está imponiendo restricciones a la red social Twitter por no eliminar el contenido ilegal de su plataforma. El Servicio Federal de Supervisión de Comunicaciones, Tecnología de la Información y Comunicaciones Masivas, conocido como Roskomnadzor, dijo que está reduciendo la velocidad de Twitter.</p>



<p>El organismo de control de las comunicaciones señaló que estaba tomando medidas para mantener seguros a los ciudadanos de Rusia y que podría terminar bloqueando el servicio por completo si Twitter no responde en consecuencia.</p>



<p>Las velocidades se reducirán en todos los dispositivos móviles y en un 50 por ciento de los dispositivos no móviles, como las computadoras, dijo Roskomnadzor en un <a href="https://rkn.gov.ru/news/rsoc/news73464.htm" rel="nofollow noopener" target="_blank">comunicado</a> en su sitio <em>web</em>.</p>



<p>Roskomnadzor acusó a Twitter de no eliminar el contenido que alienta a los menores al suicidio, que contenga pornografía infantil, así como información sobre el uso de estupefacientes.</p>



<p>Asimismo, le pidió a Twitter que eliminara enlaces y publicaciones más de 28 mil veces entre 2017 y marzo de 2021. Dijo que otras redes sociales habían sido más cooperativas que Twitter para eliminar contenido.</p>



<p><strong>Recomendado: </strong><a href="https://dplnews.com/ajedrez-racista-youtube-elimino-video-por-supuesta-incitacion-al-odio/"><strong>¿Ajedrez racista? YouTube eliminó video por supuesta incitación al odio</strong></a></p>



<p>Las autoridades rusas ya habían anunciado que están<a href="https://dplnews.com/rusia-se-va-contra-cinco-plataformas-de-internet/"> demandando a Twitter, Google, Facebook, TikTok y Telegram</a> por supuestamente no eliminar las publicaciones que instaban a los niños a participar en protestas ilegales.</p>



<p>El movimiento de Rusia para desacelerar Twitter sigue a acciones similares de gobiernos en Turquía e India que también han amenazado con encarcelar a los ejecutivos de la plataforma.</p>



<p>Las plataformas de redes sociales están en una batalla para mantener el contenido inapropiado fuera de sus plataformas. Facebook, TikTok, YouTube y Twitter utilizan una combinación de <em>software</em> y moderadores de contenido humano para controlar lo que se comparte en sus plataformas, pero ninguno de ellos ha dominado realmente la moderación de contenido.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">88424</post-id>	</item>
		<item>
		<title>TikTok redobla esfuerzos para prohibir contenido de QAnon</title>
		<link>https://dplnews.com/tiktok-redobla-esfuerzos-para-prohibir-contenido-de-qanon/</link>
		
		<dc:creator><![CDATA[Carolina Valdovinos]]></dc:creator>
		<pubDate>Wed, 21 Oct 2020 06:52:50 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[Redes sociales]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[contenido nocivo]]></category>
		<category><![CDATA[elecciones Estados Unidos]]></category>
		<category><![CDATA[Estados Unidos]]></category>
		<category><![CDATA[fake news]]></category>
		<category><![CDATA[infodemia]]></category>
		<category><![CDATA[QAnon]]></category>
		<category><![CDATA[TikTok]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=73736</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1696" height="954" src="https://dplnews.com/wp-content/uploads/2019/07/dplnews_tiktok_vr090719.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews tiktok vr090719" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/07/dplnews_tiktok_vr090719.jpg 1696w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_tiktok_vr090719-300x169.jpg 300w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_tiktok_vr090719-768x432.jpg 768w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_tiktok_vr090719-1024x576.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_tiktok_vr090719-696x392.jpg 696w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_tiktok_vr090719-1068x601.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_tiktok_vr090719-747x420.jpg 747w" sizes="auto, (max-width: 1696px) 100vw, 1696px" title="TikTok redobla esfuerzos para prohibir contenido de QAnon 9"></div>La cacería de brujas contra el grupo conspirativo QAnon en las redes sociales sigue en curso. Ahora, TikTok señaló que endurecerá la postura en contra del grupo para evitar que su contenido se propague. La acción endurece la aplicación previa de TikTok contra QAnon, ya que la compañía ahora podría eliminar de la aplicación las [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1696" height="954" src="https://dplnews.com/wp-content/uploads/2019/07/dplnews_tiktok_vr090719.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews tiktok vr090719" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/07/dplnews_tiktok_vr090719.jpg 1696w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_tiktok_vr090719-300x169.jpg 300w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_tiktok_vr090719-768x432.jpg 768w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_tiktok_vr090719-1024x576.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_tiktok_vr090719-696x392.jpg 696w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_tiktok_vr090719-1068x601.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_tiktok_vr090719-747x420.jpg 747w" sizes="auto, (max-width: 1696px) 100vw, 1696px" title="TikTok redobla esfuerzos para prohibir contenido de QAnon 10"></div>
<p>La cacería de brujas contra el grupo conspirativo QAnon en las redes sociales sigue en curso. Ahora, TikTok señaló que endurecerá la postura en contra del grupo para evitar que su contenido se propague.</p>



<p>La acción endurece la aplicación previa de TikTok contra QAnon, ya que la compañía ahora podría eliminar de la aplicación las cuentas de usuarios que comparten contenido relacionado con el grupo conspiratorio.</p>



<p>&#8220;También hemos tomado medidas importantes para hacer que este contenido sea más difícil de encontrar en búsquedas y <em>hashtags</em> al redirigir los términos asociados a nuestras Normas de la comunidad&#8221;, señaló un portavoz de TikTok al medio NPR.</p>



<p>A principios de este mes, Media Matters identificó más de una docena de <em>hashtags</em> que TikTokers usaron para difundir las teorías de conspiración de QAnon sobre la prueba positiva de coronavirus del presidente Trump, creencias falsas sobre el candidato presidencial demócrata Joe Biden y videos que cuestionan la realidad de la pandemia.</p>



<p>TikTok tiene 100 millones de suscriptores activos mensuales en Estados Unidos, por lo cual hizo una prohibición ampliada contra QAnon dándole poca visibilidad.</p>



<p>La red social utiliza una combinación de Inteligencia Artificial y miles de moderadores humanos para tratar de frenar el contenido problemático.</p>



<p>Hany Farid, miembro del comité de expertos externos en moderación de contenido de TikTok, sostuvo que existe tensión dentro de las redes sociales sobre cómo responder a la información errónea sin amplificar otras teorías subyacentes.</p>



<p>De acuerdo con las pautas de la comunidad de TikTok, la información errónea que &#8220;causa daño a las personas, a nuestra comunidad o al público en general&#8221; está prohibida en el sitio, incluida la información médica errónea, en la que QAnon se ha involucrado al impulsar nociones falsas sobre la Covid-19.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">73736</post-id>	</item>
		<item>
		<title>¿Cuáles son los daños colaterales de trabajar como moderador de Facebook?</title>
		<link>https://dplnews.com/cuales-son-los-danos-colaterales-de-trabajar-como-moderador-de-facebook/</link>
		
		<dc:creator><![CDATA[Mayumi Pérez]]></dc:creator>
		<pubDate>Thu, 19 Sep 2019 23:50:29 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[Redes sociales]]></category>
		<category><![CDATA[Salud]]></category>
		<category><![CDATA[ansiedad]]></category>
		<category><![CDATA[contenido nocivo]]></category>
		<category><![CDATA[contenido ofensivo]]></category>
		<category><![CDATA[empleados]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[fake news]]></category>
		<category><![CDATA[trauma]]></category>
		<category><![CDATA[violencia]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=28708</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="801" src="https://dplnews.com/wp-content/uploads/2019/09/dplnews_depresion_mc190919.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews depresion mc190919" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/09/dplnews_depresion_mc190919.jpg 1200w, https://dplnews.com/wp-content/uploads/2019/09/dplnews_depresion_mc190919-300x200.jpg 300w, https://dplnews.com/wp-content/uploads/2019/09/dplnews_depresion_mc190919-768x513.jpg 768w, https://dplnews.com/wp-content/uploads/2019/09/dplnews_depresion_mc190919-1024x684.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/09/dplnews_depresion_mc190919-696x465.jpg 696w, https://dplnews.com/wp-content/uploads/2019/09/dplnews_depresion_mc190919-1068x713.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/09/dplnews_depresion_mc190919-629x420.jpg 629w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="¿Cuáles son los daños colaterales de trabajar como moderador de Facebook? 11"></div>Formar parte de las filas de un gigante tecnológico como Facebook, representa uno de los trabajos más codiciados de los últimos tiempos. Sin embargo, una reciente investigación de The Guardian revela que la tarea de moderar Facebook continúa afectando psicológicamente a sus empleados, a pesar de los esfuerzos de la compañía por mejorar las condiciones [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="801" src="https://dplnews.com/wp-content/uploads/2019/09/dplnews_depresion_mc190919.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews depresion mc190919" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/09/dplnews_depresion_mc190919.jpg 1200w, https://dplnews.com/wp-content/uploads/2019/09/dplnews_depresion_mc190919-300x200.jpg 300w, https://dplnews.com/wp-content/uploads/2019/09/dplnews_depresion_mc190919-768x513.jpg 768w, https://dplnews.com/wp-content/uploads/2019/09/dplnews_depresion_mc190919-1024x684.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/09/dplnews_depresion_mc190919-696x465.jpg 696w, https://dplnews.com/wp-content/uploads/2019/09/dplnews_depresion_mc190919-1068x713.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/09/dplnews_depresion_mc190919-629x420.jpg 629w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="¿Cuáles son los daños colaterales de trabajar como moderador de Facebook? 12"></div>
<p>Formar parte de las filas de un gigante tecnológico como Facebook, representa uno de los trabajos más codiciados de los últimos tiempos.</p>



<p>Sin embargo, una reciente investigación de <em>The Guardian</em> revela que la tarea de moderar Facebook continúa afectando psicológicamente a sus empleados, a pesar de los esfuerzos de la compañía por mejorar las condiciones de trabajo.</p>



<p>Un grupo de empleados actuales y anteriores que trabajaron durante años en los centros de revisión de contenido en Facebook, con sede en Berlín, declararon haber sido testigos de cómo sus colegas se volvieron &#8220;adictos&#8221; al contenido gráfico y atesoraban ejemplos cada vez más extremos para una colección personal.</p>



<p>También dijeron que otros fueron empujados hacia la extrema derecha por la cantidad de discursos de odio y noticias falsas que leían todos los días.</p>



<p><strong>Daños colaterales</strong></p>



<p>Las declaraciones recabadas por <em>The Guardian</em> revelan que entre los eventos post trauma, los empleados han experimentado ansiedad, sentimientos de persecución y constante miedo a la relación con otros humanos.</p>



<p>En un comunicado, Facebook señaló: “Los moderadores de contenido hacen un trabajo vital para mantener segura a nuestra comunidad, y asumimos nuestra responsabilidad de garantizar su bienestar increíblemente en serio. Trabajamos en estrecha colaboración con nuestros socios para garantizar que brinden el apoyo que las personas necesitan, incluida la capacitación, el apoyo psicológico y la tecnología para limitar su exposición al contenido gráfico.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">28708</post-id>	</item>
		<item>
		<title>El contenido inapropiado u ofensivo podría no salir nunca de YouTube</title>
		<link>https://dplnews.com/el-contenido-inapropiado-u-ofensivo-podria-no-salir-nunca-de-youtube/</link>
		
		<dc:creator><![CDATA[Carolina Valdovinos]]></dc:creator>
		<pubDate>Thu, 04 Jul 2019 23:37:50 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[Internet]]></category>
		<category><![CDATA[contenido nocivo]]></category>
		<category><![CDATA[contenido ofensivo]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[Sundar Pichai]]></category>
		<category><![CDATA[YouTube]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=18335</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1280" height="720" src="https://dplnews.com/wp-content/uploads/2019/07/dplnews_contenidoofensivo_mc40719.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews contenidoofensivo mc40719" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/07/dplnews_contenidoofensivo_mc40719.jpg 1280w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_contenidoofensivo_mc40719-300x169.jpg 300w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_contenidoofensivo_mc40719-768x432.jpg 768w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_contenidoofensivo_mc40719-1024x576.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_contenidoofensivo_mc40719-696x392.jpg 696w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_contenidoofensivo_mc40719-1068x601.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_contenidoofensivo_mc40719-747x420.jpg 747w" sizes="auto, (max-width: 1280px) 100vw, 1280px" title="El contenido inapropiado u ofensivo podría no salir nunca de YouTube 13"></div>El problema de filtraciones de contenido inapropiado y difusión de noticias falsas subido a YouTube ha sobrepasado a Google. Sundar Pichai, CEO de la compañía, dijo que YouTube es demasiado grande para poder ajustar y bloquear la entrada de contenido ofensivo o perjudicial. Con la intención de aminorar la difusión de tales eventos, la compañía [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1280" height="720" src="https://dplnews.com/wp-content/uploads/2019/07/dplnews_contenidoofensivo_mc40719.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews contenidoofensivo mc40719" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/07/dplnews_contenidoofensivo_mc40719.jpg 1280w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_contenidoofensivo_mc40719-300x169.jpg 300w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_contenidoofensivo_mc40719-768x432.jpg 768w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_contenidoofensivo_mc40719-1024x576.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_contenidoofensivo_mc40719-696x392.jpg 696w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_contenidoofensivo_mc40719-1068x601.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_contenidoofensivo_mc40719-747x420.jpg 747w" sizes="auto, (max-width: 1280px) 100vw, 1280px" title="El contenido inapropiado u ofensivo podría no salir nunca de YouTube 14"></div>
<p>El problema de filtraciones de contenido inapropiado y difusión de noticias falsas subido a YouTube ha sobrepasado a Google. Sundar Pichai, CEO de la compañía, dijo que YouTube es demasiado grande para poder ajustar y bloquear la entrada de contenido ofensivo o perjudicial.</p>



<p>Con la intención de aminorar la difusión de tales eventos, la compañía ha optado por contratar “filtros humanos”; sin embargo, no ha sido suficiente.</p>



<p>Durante una entrevista de la CNN, en la que Pichai estaba abordando otros problemas, le preguntaron si alguna vez habría suficientes operadores humanos para filtrar el contenido prohibido por YouTube, a lo que Pichai respondió: “En cualquier sistema que funcione a gran escala es muy difícil. Piense en el sistema de tarjetas de crédito: siempre hay un cierto porcentaje fisiológico de estafas. En todo lo que funciona a gran escala, tenemos que pensar en términos de porcentajes”.</p>



<p>Pichai dijo que confía en que exista un progreso significativo en la filtración del contenido, mezclando los filtros humanos con los de computadora llegando a menos del 1 por ciento de falsos negativos.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">18335</post-id>	</item>
		<item>
		<title>Twitch demanda a usuarios por &#8216;inundar&#8217; de contenido nocivo su sitio</title>
		<link>https://dplnews.com/twitch-demanda-a-usuarios-por-inundar-de-contenido-nocivo-su-sitio/</link>
		
		<dc:creator><![CDATA[DPL News]]></dc:creator>
		<pubDate>Mon, 17 Jun 2019 13:18:49 +0000</pubDate>
				<category><![CDATA[Cultura digital]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[contenido nocivo]]></category>
		<category><![CDATA[Mundial]]></category>
		<category><![CDATA[Twitch]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=15821</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="2051" height="1024" src="https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews twitch vr170619" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619.jpg 2051w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619-300x150.jpg 300w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619-768x383.jpg 768w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619-1024x511.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619-696x347.jpg 696w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619-1068x533.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619-841x420.jpg 841w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619-1920x959.jpg 1920w" sizes="auto, (max-width: 2051px) 100vw, 2051px" title="Twitch demanda a usuarios por &#039;inundar&#039; de contenido nocivo su sitio 15"></div>Twitch, la plataforma de transmisión en vivo propiedad de Amazon.com, demandó a los &#8216;trolls&#8217; anónimos&#160;que inundaron el sitio el mes pasado con pornografía, contenido violento y películas y programas de televisión con derechos de autor. Entre los casos que hacen parte de la demanda se encuentra la transmisión en vivo de las matanzas de marzo [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="2051" height="1024" src="https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews twitch vr170619" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619.jpg 2051w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619-300x150.jpg 300w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619-768x383.jpg 768w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619-1024x511.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619-696x347.jpg 696w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619-1068x533.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619-841x420.jpg 841w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_twitch_vr170619-1920x959.jpg 1920w" sizes="auto, (max-width: 2051px) 100vw, 2051px" title="Twitch demanda a usuarios por &#039;inundar&#039; de contenido nocivo su sitio 16"></div>
<p>Twitch, la plataforma de transmisión en vivo propiedad de Amazon.com, demandó a los &#8216;trolls&#8217; anónimos&nbsp;<strong>que inundaron el sitio el mes pasado con pornografía, contenido violento y películas y programas de televisión con derechos de autor.</strong><br><br>Entre los casos que hacen parte de la demanda se encuentra la transmisión en vivo de las matanzas de marzo en las mezquitas en Christchurch, Nueva Zelanda,&nbsp;<strong>que dejó 51 muertos y 49 heridos.</strong>&nbsp;<a href="https://www.eltiempo.com/tecnosfera/apps/todo-lo-que-debe-saber-sobre-llamamiento-de-christchurch-y-las-redes-sociales-361904" target="_blank" rel="noreferrer noopener nofollow">El video fue filmado en primera persona y apareció en varias redes sociales, principalmente en Facebook</a>, que fue criticada por el tiempo que tardó en bajar las imágenes.</p>



<p><strong>Twitch suspendió temporalmente la transmisión de nuevos creadores después de un ataque del 25 de mayo. </strong>La plataforma indica que si bien es útil y necesario eliminar las publicaciones ofensivas y cerrar las cuentas de los usuarios que las publican, pronto los videos vuelven a aparecer. <strong>Aparentemente cuentas bots los republican y se encargan de hacer visible el contenido para otros usuarios.</strong></p>



<p>La compañía dijo que si se entera de las identidades de los usuarios anónimos que han abusado de sus términos de servicio, mencionados en la demanda como &#8220;John and Jane Does 1-100&#8221;,&nbsp;<strong>solicitará a la corte que les prohíba usar la plataforma. Y ordenarles que paguen restitución y daños.</strong></p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">15821</post-id>	</item>
		<item>
		<title>Facebook abre centro en Londres contra contenido nocivo</title>
		<link>https://dplnews.com/facebook-abre-centro-en-londres-contra-contenido-nocivo/</link>
		
		<dc:creator><![CDATA[DPL News]]></dc:creator>
		<pubDate>Wed, 12 Jun 2019 15:37:03 +0000</pubDate>
				<category><![CDATA[Redes sociales]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[contenido nocivo]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[Londres]]></category>
		<category><![CDATA[redes sociales]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=15251</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1264" height="711" src="https://dplnews.com/wp-content/uploads/2019/06/dplnews_facebooklondres_vr120619.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews facebooklondres vr120619" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/06/dplnews_facebooklondres_vr120619.jpeg 1264w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_facebooklondres_vr120619-300x169.jpeg 300w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_facebooklondres_vr120619-768x432.jpeg 768w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_facebooklondres_vr120619-1024x576.jpeg 1024w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_facebooklondres_vr120619-696x392.jpeg 696w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_facebooklondres_vr120619-1068x601.jpeg 1068w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_facebooklondres_vr120619-747x420.jpeg 747w" sizes="auto, (max-width: 1264px) 100vw, 1264px" title="Facebook abre centro en Londres contra contenido nocivo 17"></div>El Vocero LONDRES —&#160;Facebook dijo hoy que abrirá un centro de ingeniería en Londres que construirá herramientas destinadas a sacar el contenido nocivo de la red social. El anuncio de la empresa estadounidense coincidió con el aumento de la presión de los gobiernos a las grandes empresas tecnológicas para que controlen mejor sus plataformas. El [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1264" height="711" src="https://dplnews.com/wp-content/uploads/2019/06/dplnews_facebooklondres_vr120619.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews facebooklondres vr120619" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/06/dplnews_facebooklondres_vr120619.jpeg 1264w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_facebooklondres_vr120619-300x169.jpeg 300w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_facebooklondres_vr120619-768x432.jpeg 768w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_facebooklondres_vr120619-1024x576.jpeg 1024w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_facebooklondres_vr120619-696x392.jpeg 696w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_facebooklondres_vr120619-1068x601.jpeg 1068w, https://dplnews.com/wp-content/uploads/2019/06/dplnews_facebooklondres_vr120619-747x420.jpeg 747w" sizes="auto, (max-width: 1264px) 100vw, 1264px" title="Facebook abre centro en Londres contra contenido nocivo 18"></div>
<p><a rel="noreferrer noopener nofollow" aria-label="El Vocero (opens in a new tab)" href="https://www.elvocero.com/economia/facebook-abre-centro-en-londres-contra-contenido-nocivo/article_74042ebc-8cfc-11e9-bea2-a71cecb84c78.html" target="_blank">El Vocero</a></p>



<p><strong>LONDRES —</strong>&nbsp;Facebook dijo hoy que abrirá un centro de ingeniería en Londres que construirá herramientas destinadas a sacar el contenido nocivo de la red social.</p>



<p>El anuncio de la empresa estadounidense coincidió con el aumento de la presión de los gobiernos a las grandes empresas tecnológicas para que controlen mejor sus plataformas.</p>



<p>El centro creará más de 500 nuevos empleos tecnológicos, incluyendo 100 en inteligencia artificial, para final de año, explicó Facebook en un comunicado.</p>



<p>“Un número importante” de nuevos empleos estarán en el equipo de integridad de la comunidad de la firma, que trabaja para detener el spam y los abusos y para abordar la violencia y la seguridad personal.</p>



<p>Una de las responsabilidades del equipo es construir software avanzado y sistemas de inteligencia artificial para detectar y erradicar comportamientos dañinos, como contenido malicioso y cuentas falsas.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">15251</post-id>	</item>
	</channel>
</rss>
