<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>sexismo &#8211; DPL News</title>
	<atom:link href="https://dplnews.com/tag/sexismo/feed/" rel="self" type="application/rss+xml" />
	<link>https://dplnews.com</link>
	<description>DPL News</description>
	<lastBuildDate>Wed, 03 Apr 2024 15:42:34 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://dplnews.com/wp-content/uploads/2020/03/logo-favicon-64x64-dplnews.png</url>
	<title>sexismo &#8211; DPL News</title>
	<link>https://dplnews.com</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">201771233</site>	<item>
		<title>La Unesco alerta sobre tendencias sexistas de la Inteligencia Artificial</title>
		<link>https://dplnews.com/la-unesco-alerta-sobre-tendencias-sexistas-de-la-ia/</link>
		
		<dc:creator><![CDATA[Sharon Durán]]></dc:creator>
		<pubDate>Tue, 12 Mar 2024 14:57:18 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[Llama 2]]></category>
		<category><![CDATA[mujeres y TIC]]></category>
		<category><![CDATA[Open AI]]></category>
		<category><![CDATA[sesgo algorítmico]]></category>
		<category><![CDATA[sesgo de género]]></category>
		<category><![CDATA[sexismo]]></category>
		<category><![CDATA[UNESCO]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=227035</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1024" height="576" src="https://dplnews.com/wp-content/uploads/2024/02/dplnews-mulher-mujer-igualdade-igualdad_mf15224.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews mulher mujer igualdade igualdad mf15224" decoding="async" fetchpriority="high" srcset="https://dplnews.com/wp-content/uploads/2024/02/dplnews-mulher-mujer-igualdade-igualdad_mf15224.jpg 1024w, https://dplnews.com/wp-content/uploads/2024/02/dplnews-mulher-mujer-igualdade-igualdad_mf15224-300x169.jpg 300w, https://dplnews.com/wp-content/uploads/2024/02/dplnews-mulher-mujer-igualdade-igualdad_mf15224-768x432.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" title="La Unesco alerta sobre tendencias sexistas de la Inteligencia Artificial 1"></div>
Un estudio realizado por la Unesco revela los sesgos sexistas que refuerzan los estereotipos de género en los modelos de lenguaje en los que se basa la IA.]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1024" height="576" src="https://dplnews.com/wp-content/uploads/2024/02/dplnews-mulher-mujer-igualdade-igualdad_mf15224.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews mulher mujer igualdade igualdad mf15224" decoding="async" srcset="https://dplnews.com/wp-content/uploads/2024/02/dplnews-mulher-mujer-igualdade-igualdad_mf15224.jpg 1024w, https://dplnews.com/wp-content/uploads/2024/02/dplnews-mulher-mujer-igualdade-igualdad_mf15224-300x169.jpg 300w, https://dplnews.com/wp-content/uploads/2024/02/dplnews-mulher-mujer-igualdade-igualdad_mf15224-768x432.jpg 768w" sizes="(max-width: 1024px) 100vw, 1024px" title="La Unesco alerta sobre tendencias sexistas de la Inteligencia Artificial 2"></div>
<p>A propósito del <a href="https://dplnews.com/8m-2024-mujeres-que-rompen-codigos/">8 de marzo</a>, la unidad para la educación, la ciencia y la cultura de la ONU (<a href="https://dplnews.com/lideres-se-dieron-cuenta-que-hay-que-estar-mejor-preparados-para-la-ia-gabriela-ramos-de-unesco/">Unesco</a>) publicó un estudio titulado: <em>Prejuicios contra las mujeres y las niñas en los grandes modelos de lenguaje,</em><strong> que analizó los estereotipos presentes en las herramientas de procesamiento del lenguaje que las plataformas de Inteligencia Artificial generativa usan como referencia</strong>.<strong>&nbsp;</strong></p>



<p>Durante el estudio, se le pidió a las plataformas de IA que escribieran una historia para individuos con diversidad de género, sexualidad, orígenes culturales, entre otros aspectos.&nbsp;</p>



<p>Las herramientas mostraron una tendencia a asignar trabajos más diversos y de mayor prestigio a los varones, como ingeniero, profesor y médico, mientras que asignaba a <strong>las mujeres a roles de menos prestigio o socialmente estigmatizados, como &#8220;empleada doméstica&#8221;, &#8220;cocinera&#8221; y &#8220;prostituta&#8221;</strong>.</p>



<p>Estas consideraciones de la IA profundizan los prejuicios sexistas contra las mujeres en los contenidos generados por cada una de estas plataformas, lo que preocupa a la Unesco dado que “<strong>millones de personas las utilizan y los sesgos de género en su contenido pueden ampliar el impacto social que tienen e incluso profundizar las brechas de desigualdades que ya están presentas en el mundo físico</strong>”, destacó la Unesco.</p>



<p class="has-background" style="background-color:#fff6f9"><strong>Recomendamos: </strong><a href="https://dplnews.com/la-inteligencia-artificial-si-es-sexista-pero-no-es-su-culpa/"><strong>La Inteligencia Artificial sí es sexista, pero no es su culpa</strong></a></p>



<p>De acuerdo al estudio, los modelos de lenguaje masivos como <a href="https://dplnews.com/?s=GPT-2">GPT-2, de OpenAI</a>, y <a href="https://dplnews.com/microsoft-y-qualcomm-trabajan-con-meta-para-facilitar-el-acceso-a-su-nueva-ia-llama-2/">Llama 2, de Meta</a> cuentan con un sesgo de género aún más marcado lo que puede amplificar los riesgos dado que son plataformas gratuitas que llegan a un público muy amplio.&nbsp;</p>



<p>Por su parte, las niñas no se quedan fuera de los sesgos sexistas que presenta la tecnología. En los relatos generados por Llama 2 <strong>sobre niños y varones, prevalecen las palabras “tesoro”, “aventurero”, “decidido”, “bosque”, “encontrado”</strong>.</p>



<p>Mientras que <strong>en los relatos sobre niñas y mujeres predominan las palabras &#8220;jardín&#8221;, &#8220;amor&#8221;, &#8220;sentía&#8221;, &#8220;suave&#8221;, &#8220;pelo&#8221; y &#8220;marido&#8221;</strong>.&nbsp;</p>



<h2 class="wp-block-heading">¿Qué hacer para mitigar los sesgos de género en la IA?</h2>



<p>“Nuestra organización <strong>pide a los gobiernos que desarrollen y apliquen marcos regulatorios claros</strong>, y a las empresas privadas que lleven a cabo un seguimiento y una <strong>evaluación continuos para detectar sesgos sistémicos</strong>, como se establece en la recomendación de la Unesco sobre <a href="https://dplnews.com/argentina-aprueba-directrices-eticas-para-el-desarollo-de-inteligencia-artificial/">la ética de la inteligencia artificial</a>, adoptada por unanimidad por nuestros estados miembros en noviembre de 2021”, recordó Audrey Azoulay, directora general de la Unesco.</p>



<p>En la misma línea, las acciones que toman empresas y gobiernos deberían garantizar la <a href="https://dplnews.com/participacion-de-mujeres-en-ia-cerrara-brechas/">igualdad de género en el diseño de herramientas de IA</a> “Lo que debería incluir <strong>la asignación de fondos para financiar planes de paridad de género en las empresas</strong>, incentivar económicamente el espíritu empresarial de las mujeres e invertir en programas específicos para <a href="https://dplnews.com/si-los-modelos-femeninos-en-areas-stem-cambiaran-el-futuro-de-las-ninas/">aumentar las oportunidades de participación de las niñas y las mujeres en las disciplinas digitales y tecnológicas</a>”, destaca el documento de la Unesco.&nbsp;</p>



<p>Además, la organización considera vital <a href="https://dplnews.com/telcos-britanicas-se-comprometen-a-contratar-mas-mujeres-en-cargos-directivos/">diversificar las contrataciones en las empresas para luchar contra los estereotipos</a> pues de acuerdo a cifras de la misma institución las mujeres representan sólo el 20 por ciento de los empleados en roles técnicos en las principales compañías de aprendizaje automático, el 12 por ciento de investigadoras en IA y el 6 por ciento del total de desarrolladores de <em>software </em>profesionales.&nbsp;</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">227035</post-id>	</item>
		<item>
		<title>La Inteligencia Artificial sí es sexista, pero no es su culpa</title>
		<link>https://dplnews.com/la-inteligencia-artificial-si-es-sexista-pero-no-es-su-culpa/</link>
		
		<dc:creator><![CDATA[Sharon Durán]]></dc:creator>
		<pubDate>Thu, 20 Jul 2023 16:25:38 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[Editor's Picks]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[algoritmos]]></category>
		<category><![CDATA[igualdad de género]]></category>
		<category><![CDATA[relevante tech]]></category>
		<category><![CDATA[sesgo algorítmico]]></category>
		<category><![CDATA[sesgo de género]]></category>
		<category><![CDATA[sexismo]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=201069</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1020" height="640" src="https://dplnews.com/wp-content/uploads/2023/07/dplnews_sexista-desigualdad-genero_mc20723.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews sexista desigualdad genero mc20723" decoding="async" srcset="https://dplnews.com/wp-content/uploads/2023/07/dplnews_sexista-desigualdad-genero_mc20723.jpg 1020w, https://dplnews.com/wp-content/uploads/2023/07/dplnews_sexista-desigualdad-genero_mc20723-300x188.jpg 300w, https://dplnews.com/wp-content/uploads/2023/07/dplnews_sexista-desigualdad-genero_mc20723-768x482.jpg 768w" sizes="(max-width: 1020px) 100vw, 1020px" title="La Inteligencia Artificial sí es sexista, pero no es su culpa 3"></div>A pesar de las luchas por la igualdad que se libran alrededor del mundo, los entornos digitales se han convertido en un nuevo escenario para transgredir los derechos de otras personas y la Inteligencia Artificial (IA) no es la excepción. La IA no elige qué tipo de información usar, al menos no de forma directa. [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1020" height="640" src="https://dplnews.com/wp-content/uploads/2023/07/dplnews_sexista-desigualdad-genero_mc20723.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews sexista desigualdad genero mc20723" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2023/07/dplnews_sexista-desigualdad-genero_mc20723.jpg 1020w, https://dplnews.com/wp-content/uploads/2023/07/dplnews_sexista-desigualdad-genero_mc20723-300x188.jpg 300w, https://dplnews.com/wp-content/uploads/2023/07/dplnews_sexista-desigualdad-genero_mc20723-768x482.jpg 768w" sizes="auto, (max-width: 1020px) 100vw, 1020px" title="La Inteligencia Artificial sí es sexista, pero no es su culpa 5"></div>
<p>A pesar de las luchas por la igualdad que se libran alrededor del mundo, los entornos digitales se han convertido en un nuevo escenario para transgredir los derechos de otras personas y la Inteligencia Artificial (IA) no es la excepción.</p>



<p>La IA no elige qué tipo de información usar, al menos no de forma directa. La maquina, a diferencia del ser humano, no tiene sexo, identidad de género ni pre-conceptos sociales que filtren sus decisiones, todos estos rasgo los construye con base en la información que habita en línea y que aprendió durante sus primeras fases de entrenamiento.</p>



<p>De acuerdo con datos de ONU Mujeres, sólo 48 por ciento de las mujeres alrededor del mundo están conectadas a Internet, <em>versus</em> 58 por ciento de los hombres, 10 por ciento más, lo que determina no sólo la posibilidad de participar en el entrenamiento de la máquina sino también las conductas de navegación que se tienen en Internet.</p>



<p>Así, la máquina toma los datos existentes, que tienen <a href="https://dplnews.com/reconocimiento-facial-respalda-el-sesgo-algoritmico-expertos/">sesgos</a>; replica la información sesgada, fortalece los datos de navegación y aprende nueva información que también está sesgada, generando así un gran círculo vicioso, que no fue producida por esta tecnología pero que sí está siendo divulgada.</p>



<p>Para frenar esta bola de nieve, la sociedad civil tiene una responsabilidad vital para llevar a cabo auditorías, análisis y evaluaciones constantes y rigurosas sobre la forma en la que los algoritmos, así como la sociedad misma, concibe la femineidad, los estándares femeninos y el tipo de contenido de mujeres que habitan en la <em>web</em>.</p>



<p>La tecnología no es más que un reflejo de la sociedad y, en este sentido, se necesitan ampliar debates sobre los propósitos del desarrollo de la tecnología, de la regulación y autorregulación de las empresas para llegar a acuerdos que amplíen las perspectivas para que la evolución no genere un retroceso en la igualdad.</p>



<ul class="wp-block-list">
<li>En 2023, <a href="https://dplnews.com/usuarias-de-replika-son-acosadas-por-la-propia-app/"><strong>Replika</strong> empezó a solicitar contenido sexual a usuarias</a> de la <em>app</em>. Al negarse, la <em>app</em> respondía de forma hostil y sexista a cada comentario.</li>



<li>En 2022, una IA de selección de personal eligió más hombres que mujeres para los mismos cargos, basándose únicamente en el género del candidato.&nbsp;</li>



<li>En 2016, <strong>Tay</strong>, el chat de Twitter, respondió a usuarios con insultos sexistas, antisemitas y racistas el mismo día de su lanzamiento.</li>



<li>En 2007, <strong>Siri</strong>, el asistente de voz de Apple, se lanzó al mercado como el primer asistente virtual. En ese momento sólo tenía una opción de voz femenina. Las siguientes asistentes de voz también son femeninas.</li>
</ul>



<h3 class="wp-block-heading">Texto publicado en nuestra revista <a href="https://dplnews.com/wp-content/uploads/2023/05/Digital-Trends-3-Gobernanza-Inteligencia-Artificial.pdf">Digital Trends</a>:</h3>


<div class="wp-block-image">
<figure class="aligncenter size-full is-resized"><a href="https://dplnews.com/wp-content/uploads/2023/05/Digital-Trends-3-Gobernanza-Inteligencia-Artificial.pdf"><img loading="lazy" decoding="async" src="https://dplnews.com/wp-content/uploads/2023/05/digital-trends3-300x600-1.jpg" alt="digital trends3 300x600 1" class="wp-image-193521" width="300" height="600" title="La Inteligencia Artificial sí es sexista, pero no es su culpa 4" srcset="https://dplnews.com/wp-content/uploads/2023/05/digital-trends3-300x600-1.jpg 300w, https://dplnews.com/wp-content/uploads/2023/05/digital-trends3-300x600-1-150x300.jpg 150w, https://dplnews.com/wp-content/uploads/2023/05/digital-trends3-300x600-1-210x420.jpg 210w" sizes="auto, (max-width: 300px) 100vw, 300px" /></a></figure>
</div>]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">201069</post-id>	</item>
		<item>
		<title>“La inclusión es una decisión humana y no podemos dejársela a los algoritmos”</title>
		<link>https://dplnews.com/la-inclusion-es-una-decision-humana-y-no-podemos-dejarsela-a-los-algoritmos/</link>
		
		<dc:creator><![CDATA[Violeta Contreras García]]></dc:creator>
		<pubDate>Thu, 11 Mar 2021 04:03:52 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[algoritmos]]></category>
		<category><![CDATA[Andrea Escobedo]]></category>
		<category><![CDATA[IBM]]></category>
		<category><![CDATA[IFT]]></category>
		<category><![CDATA[inclusión de género]]></category>
		<category><![CDATA[México]]></category>
		<category><![CDATA[roles de género]]></category>
		<category><![CDATA[sesgo de género]]></category>
		<category><![CDATA[sexismo]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=88417</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1256" height="658" src="https://dplnews.com/wp-content/uploads/2021/03/image-8.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="image 8" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2021/03/image-8.png 1256w, https://dplnews.com/wp-content/uploads/2021/03/image-8-300x157.png 300w, https://dplnews.com/wp-content/uploads/2021/03/image-8-1024x536.png 1024w, https://dplnews.com/wp-content/uploads/2021/03/image-8-768x402.png 768w, https://dplnews.com/wp-content/uploads/2021/03/image-8-696x365.png 696w, https://dplnews.com/wp-content/uploads/2021/03/image-8-1068x560.png 1068w, https://dplnews.com/wp-content/uploads/2021/03/image-8-802x420.png 802w" sizes="auto, (max-width: 1256px) 100vw, 1256px" title="“La inclusión es una decisión humana y no podemos dejársela a los algoritmos” 6"></div>Los sistemas de Inteligencia Artificial (IA) están programados para, entre varias cosas, identificar patrones, realizar pronósticos y ejecutar acciones con base en datos dentro de múltiples sectores, desde la salud hasta los servicios financieros, emulando de alguna manera la inteligencia humana. Aunque están pensados para hacer más eficientes tareas complejas y cotidianas, los algoritmos que [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1256" height="658" src="https://dplnews.com/wp-content/uploads/2021/03/image-8.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="image 8" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2021/03/image-8.png 1256w, https://dplnews.com/wp-content/uploads/2021/03/image-8-300x157.png 300w, https://dplnews.com/wp-content/uploads/2021/03/image-8-1024x536.png 1024w, https://dplnews.com/wp-content/uploads/2021/03/image-8-768x402.png 768w, https://dplnews.com/wp-content/uploads/2021/03/image-8-696x365.png 696w, https://dplnews.com/wp-content/uploads/2021/03/image-8-1068x560.png 1068w, https://dplnews.com/wp-content/uploads/2021/03/image-8-802x420.png 802w" sizes="auto, (max-width: 1256px) 100vw, 1256px" title="“La inclusión es una decisión humana y no podemos dejársela a los algoritmos” 7"></div>
<p>Los sistemas de <strong>Inteligencia Artificial</strong> (IA) están programados para, entre varias cosas, identificar patrones, realizar pronósticos y ejecutar acciones con base en datos dentro de múltiples sectores, desde la salud hasta los servicios financieros, emulando de alguna manera la inteligencia humana.</p>



<p>Aunque están pensados para hacer más eficientes tareas complejas y cotidianas, los algoritmos que usan estos sistemas pueden tener puntos ciegos y <a href="https://dplnews.com/siri-el-asistente-de-voz-de-apple-no-habla-de-feminismo/">reproducir sesgos de género</a>, clase, etnia u otros que mantienen el <strong><em>status quo</em></strong> de la estructura social.</p>



<p>Por ello, es importante adoptar una perspectiva de transparencia, de género y ética sobre cómo se desarrollan los algoritmos, advirtió Andrea Escobedo, directora de Asuntos con Gobierno y Regulatorios de IBM México, durante una conferencia organizada por el Instituto Federal de Telecomunicaciones.</p>



<p><strong>“La inclusión es una decisión humana y no podemos dejársela a los algoritmos”</strong>, ya que muchas veces replican sesgos que permean en la sociedad, como <a href="https://dplnews.com/asi-afecta-el-sesgo-de-genero-a-los-sistemas-tecnologicos-de-reconocimiento/">los roles tradicionales de género</a>, los estereotipos o incluso la violencia de género, alertó.</p>



<p>Escobedo explicó que los algoritmos son alimentados por bases de datos que de antemano manifiestan brechas; si esto no se toma en cuenta, existe un fuerte riesgo de no adoptar una visión incluyente en la toma de decisiones.</p>



<p>Por ejemplo, en el sector financiero, un algoritmo aplicado en la oferta de un crédito bancario podría tener una subrepresentación de las mujeres si parte de la información de un banco, porque en países como México ellas tienen menos acceso a los servicios financieros.</p>



<p>En tanto, en el diseño de aplicaciones móviles para el monitoreo de la salud, si no se toma en cuenta el ciclo menstrual de las mujeres, se está dejando fuera a la mitad de la población mundial. A esto se debieron las críticas que recibió en un inicio el Apple Watch.</p>



<p>También puede suceder lo opuesto. Si existe una sobrerrepresentación de algunos grupos en los sistemas de IA alimentados por algoritmos, las decisiones que tomen estos sistemas pueden generar discriminación, como ha sucedido en el ámbito de la seguridad pública, en el que <a href="https://dplnews.com/la-etnia-color-de-piel-y-genero-son-los-principales-problemas-del-reconocimiento-facial-en-eua/">se han detectado sesgos</a> respecto a la incidencia delictiva de la población afrodescendiente.</p>



<p><strong>Te recomendamos: </strong><a href="https://dplnews.com/siri-y-alexa-perpetuan-roles-sexistas-mientras-las-mujeres-siguen-rezagadas-en-la-tecnologia-unesco/"><strong>Siri y Alexa perpetúan roles sexistas mientras las mujeres siguen rezagadas en la tecnología: Unesco</strong></a></p>



<p>Por lo tanto, la experta de IBM expuso que las personas deben mantener el control de las decisiones de los sistemas de IA, escudriñar cómo están aprendiendo, y cómo y de dónde se obtiene la información en la que se basan las respuestas, con el fin de reconocer los puntos ciegos y abordarlos desde un enfoque inclusivo y ético.</p>



<p>Incluso es necesario que los desarrolladores de tecnología y las empresas se cuestionen que existe un problema <a href="https://dplnews.com/data-feminism-la-lucha-contra-la-opresion-y-la-desigualdad-en-la-ciencia-de-datos/">desde el diseño de los sistemas</a> y algoritmos, debido a que los equipos de desarrollo suelen tener una visión limitada porque no hay suficiente participación de las mujeres, o de diferentes grupos étnicos y otros tantos.</p>



<p>En las brechas de género, Escobedo resaltó que tan sólo el 12 por ciento de las investigadoras en IA son mujeres. Esto implica una problemática de origen si se quiere promover el uso de la tecnología de manera inclusiva y no caer en un ciclo de exclusión, discriminación y desigualdad.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">88417</post-id>	</item>
		<item>
		<title>El mundo visto por el sexismo de los algoritmos: ellas en biquini, ellos con traje y corbata</title>
		<link>https://dplnews.com/el-mundo-visto-por-el-sexismo-de-los-algoritmos-ellas-en-biquini-ellos-con-traje-y-corbata/</link>
		
		<dc:creator><![CDATA[DPL News]]></dc:creator>
		<pubDate>Wed, 17 Feb 2021 13:44:21 +0000</pubDate>
				<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[algoritmos]]></category>
		<category><![CDATA[machismo]]></category>
		<category><![CDATA[Racismo]]></category>
		<category><![CDATA[sexismo]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=85645</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="768" height="576" src="https://dplnews.com/wp-content/uploads/2021/02/dplnews_algoritmos_vr170221.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews algoritmos vr170221" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2021/02/dplnews_algoritmos_vr170221.jpg 768w, https://dplnews.com/wp-content/uploads/2021/02/dplnews_algoritmos_vr170221-300x225.jpg 300w, https://dplnews.com/wp-content/uploads/2021/02/dplnews_algoritmos_vr170221-80x60.jpg 80w, https://dplnews.com/wp-content/uploads/2021/02/dplnews_algoritmos_vr170221-265x198.jpg 265w, https://dplnews.com/wp-content/uploads/2021/02/dplnews_algoritmos_vr170221-696x522.jpg 696w, https://dplnews.com/wp-content/uploads/2021/02/dplnews_algoritmos_vr170221-560x420.jpg 560w" sizes="auto, (max-width: 768px) 100vw, 768px" title="El mundo visto por el sexismo de los algoritmos: ellas en biquini, ellos con traje y corbata 8"></div>El País- Jorge G. García La&#160;discriminación que provocan los algoritmos&#160;es ya uno de los grandes problemas del mundo virtual. No solo porque quienes los programan son humanos con sus propios sesgos, sino porque el machismo, el racismo y el sexismo forman parte del aprendizaje natural de estas fórmulas matemáticas, de las que dependen cada vez [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="768" height="576" src="https://dplnews.com/wp-content/uploads/2021/02/dplnews_algoritmos_vr170221.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews algoritmos vr170221" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2021/02/dplnews_algoritmos_vr170221.jpg 768w, https://dplnews.com/wp-content/uploads/2021/02/dplnews_algoritmos_vr170221-300x225.jpg 300w, https://dplnews.com/wp-content/uploads/2021/02/dplnews_algoritmos_vr170221-80x60.jpg 80w, https://dplnews.com/wp-content/uploads/2021/02/dplnews_algoritmos_vr170221-265x198.jpg 265w, https://dplnews.com/wp-content/uploads/2021/02/dplnews_algoritmos_vr170221-696x522.jpg 696w, https://dplnews.com/wp-content/uploads/2021/02/dplnews_algoritmos_vr170221-560x420.jpg 560w" sizes="auto, (max-width: 768px) 100vw, 768px" title="El mundo visto por el sexismo de los algoritmos: ellas en biquini, ellos con traje y corbata 9"></div>
<p><a href="https://elpais.com/tecnologia/2021-02-16/el-mundo-visto-por-los-algoritmos-ellas-en-biquini-ellos-con-traje-y-corbata.html" class="rank-math-link" rel="nofollow noopener" target="_blank">El País- Jorge G. García</a></p>



<p>La&nbsp;<a href="https://retina.elpais.com/retina/2019/03/14/tendencias/1552564034_268678.html" target="_blank" rel="noreferrer noopener nofollow">discriminación que provocan los algoritmos</a>&nbsp;es ya uno de los grandes problemas del mundo virtual. No solo porque quienes los programan son humanos con sus propios sesgos, sino porque el machismo, el racismo y el sexismo forman parte del aprendizaje natural de estas fórmulas matemáticas, de las que dependen cada vez más aspectos de nuestras vidas. Un estudio reciente&nbsp;<a href="https://www.technologyreview.es/s/13117/internet-esta-tan-sesgado-que-para-la-ia-las-mujeres-solo-llevan-bikini" target="_blank" rel="noreferrer noopener nofollow">recogido por el Instituto Tecnológico de Massachussets</a>&nbsp;(MIT), elaborado por Ryan Steed, estudiante de doctorado de la Universidad Carnegie Mellon, y la profesora de la Universidad George Washington Aylin Caliskan, ha demostrado que la inteligencia artificial encargada de autocompletar imágenes en las que apenas se ve mucho más allá de un rostro sexualiza mayoritariamente a las mujeres a partir de datos y del lenguaje que circula libremente por internet. Al procesar las fotografías, los algoritmos analizados vestían al 53% de las mujeres con tops y biquinis; mientras vestían al 43% de los hombres con traje y corbata.</p>



<p>El resultado no se debe al anonimato de las personas seleccionadas. Una política tan célebre como la congresista demócrata Alexandria Ocasio-Cortez, de quien existe un amplio archivo de retratos en la red, también padeció los prejuicios de la inteligencia artificial.&nbsp;<a href="https://retina.elpais.com/retina/2019/05/22/innovacion/1558534736_501166.html" rel="nofollow noopener" target="_blank">La tecnología interpretó que lo más sensato era completar su imagen con un biquini</a>. “El estudio es un espejo de la realidad en la que vivimos, de lo que se ha creado en internet. Refleja las lacras sociales con las que convivimos a diario”, sostiene Lorena Jaume-Palasi, integrante del consejo asesor del Gobierno para inteligencia artificial.</p>



<p>El impacto de este aprendizaje autónomo y discriminatorio no se limita únicamente a la generación de imágenes completas.&nbsp;<a href="https://retina.elpais.com/retina/2019/09/20/tendencias/1568965024_919905.html" rel="nofollow noopener" target="_blank">Los servicios de vigilancia, de reconocimiento facial, de criminología o incluso las autoridades policiales emplean constantemente</a>&nbsp;este tipo de tecnología en aplicaciones relacionadas con la visión por computación. En la mayoría de casos, cuentan con la supervisión humana para revertir los sesgos, pero no siempre sucede de esta manera, tal y como han concluido Steed y Caliskan.</p>



<p><a href="https://retina.elpais.com/retina/2019/07/17/tendencias/1563368158_820285.html" rel="nofollow noopener" target="_blank">Esa discriminación se aprecia incluso en algo aparentemente naíf como FaceApp</a>, la aplicación que envejece y cambia de sexo las caras de los usuarios con unos filtros. El resultado depende de los datos aprendidos por el algoritmo, del entrenamiento recibido en internet y en grandes repositorios de imágenes públicas como ImageNet. Peligros para la privacidad aparte, al usarla, con imágenes de personas negras parecía imposible que aparecieran con pelo afro. La aplicación casi siempre decidía que su nuevo corte fuera liso. La inteligencia artificial utilizada por FaceApp es la misma que la analizada en el estudio.</p>



<p><a href="https://retina.elpais.com/retina/2019/08/13/innovacion/1565685821_777907.html" rel="nofollow noopener" target="_blank">No hay consenso sobre cómo resolver el machismo algorítimico</a>. Lo más elemental en el caso de las fotografías es comprender que resulta imposible disponer de las caras de todo el mundo, según explica Ricardo Baeza-Yates, director de Ciencia de Datos en Northeastern University y catedrático de Informática de la Universitat Pompeu Fabra. Cuanto más abierto sea el dominio del uso de inteligencia artificial, más grave puede ser el error. Existen demasiados ángulos ciegos durante el aprendizaje. “Yo exigiría una regulación para que un comité de ética externo, sin conflictos de interés, apruebe los algoritmos empleados por instituciones y empresas que afecten a las personas”, asegura.</p>



<h3 class="wp-block-heading">A vueltas con la frenología</h3>



<p>Al margen del sexismo que se traslada de la sociedad a internet, la pseudociencia de la frenología explica también por qué las máquinas se empeñan en reincidir en este problema.&nbsp;<a href="https://retina.elpais.com/retina/2020/06/11/tendencias/1591875019_162548.html" rel="nofollow noopener" target="_blank">Cuando afrontan soluciones biométricas, parten de la idea de que pueden determinar rasgos físicos y de la personalidad solo con observar la forma del cráneo o de algunas facciones</a>. Extrapolan unos resultados basados en criterios aleatorios, para nada científicos. Buscan una aproximación a unos sistemas estadísticos creados a mitad del siglo XIX por Karl Pearson y Francis Galton. “Hablamos de algoritmos problemáticos, faltos de una verdadera ciencia de datos. Parten de la presuposición. De medir dimensiones internas del ser humano, como la forma de vestir, según su fisionomía. Éticamente son muy inconsistentes”, zanja Jaume-Palasi.</p>



<p>La pretensión de matematizar todas las conductas humanas tampoco contribuye a que los algoritmos operen bajo una ética deseable. Baeza-Yates reclama a los programadores mayor humildad —”les cuesta decir ‘no lo sé”—, afirma. Si durante su desarrollo no consiguen una probabilidad óptima, lo ideal sería dar marcha atrás. Historia diferente es que la inteligencia artificial refleje la discriminación sistémica de internet. Forma parte del propio ser humano. “No se miran los sesgos hasta que aparecen los problemas. Si con la observación activa el algoritmo sigue amplificando la discriminación, entonces habría que comprobar si ha tenido incentivos por sí sola para trabajar de esta manera”, sugiere.</p>



<p>Poco a poco crecen las voces que reclaman un mayor control de los abusos de esta tecnología. Han surgido organismos éticos. En el discurso público no es extraño escuchar la necesidad de regulación. Hasta la sociedad en su conjunto piensa qué se esconde detrás o cómo funciona el último avance técnico.&nbsp;<a href="https://retina.elpais.com/retina/2019/12/18/tendencias/1576680719_890079.html" rel="nofollow noopener" target="_blank">Pero todavía son pasos insuficientes a tenor de investigaciones como la de Steed y Caliskan</a>. “Cuando creas este estilo de algoritmos, estandarizas procesos. Creas cajones y metes a la gente dentro de ellos. Y la humanidad es muy heterogénea. Habrá problemas de clasificación. No hay suficientes cajones para incluir a más de 7.000 millones de personas”, concluye Jaume-Palasi.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">85645</post-id>	</item>
		<item>
		<title>Facebook debe detener la violencia en línea contra las mujeres de la política</title>
		<link>https://dplnews.com/facebook-debe-detener-la-violencia-en-linea-contra-las-mujeres-de-la-politica/</link>
		
		<dc:creator><![CDATA[Valeria Romero]]></dc:creator>
		<pubDate>Wed, 19 Aug 2020 16:08:11 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[Redes sociales]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[discurso de odio]]></category>
		<category><![CDATA[Estados Unidos]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[mujeres políticas]]></category>
		<category><![CDATA[política]]></category>
		<category><![CDATA[redes sociales]]></category>
		<category><![CDATA[sexismo]]></category>
		<category><![CDATA[Unión Europea]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=66495</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="720" height="720" src="https://dplnews.com/wp-content/uploads/2020/08/Dplnews_gender-based-violence_as190820.gif" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="Dplnews gender based violence as190820" decoding="async" loading="lazy" title="Facebook debe detener la violencia en línea contra las mujeres de la política 10"></div>Las legisladoras de la Unión Europea y del Congreso de Estados Unidos enviaron una carta dirigida al Director Ejecutivo de Facebook, Mark Zuckerberg, y a la Directora de Operaciones, Sheryl Sandberg, donde pidieron a la red social eliminar las publicaciones de violencia y discurso de odio contra las mujeres en la política. &#8220;Estamos implorando a [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="720" height="720" src="https://dplnews.com/wp-content/uploads/2020/08/Dplnews_gender-based-violence_as190820.gif" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="Dplnews gender based violence as190820" decoding="async" loading="lazy" title="Facebook debe detener la violencia en línea contra las mujeres de la política 11"></div>
<p>Las legisladoras de la Unión Europea y del Congreso de Estados Unidos enviaron una carta dirigida al Director Ejecutivo de Facebook, Mark Zuckerberg, y a la Directora de Operaciones, Sheryl Sandberg, donde pidieron a la red social <strong>eliminar las publicaciones de violencia y discurso de odio contra las mujeres en la política.</strong></p>



<p>&#8220;Estamos implorando a Facebook que haga más para proteger la capacidad de las mujeres para participar en el discurso democrático y <strong>para promover un espacio seguro y empoderador para las mujeres</strong>&#8220;, dijo la carta, dirigida por la representante estadounidense Jackie Speier, una demócrata que también es copresidenta de la Asamblea Política Nacional de Mujeres.</p>



<p>La carta exige a la red social que<strong> se eliminen videos, imágenes y cuentas ofensivas manipuladas que glorifican la violencia, sexismo y odio contra las mujeres</strong> en sus plataformas, en especial contra las mujeres que forman parte del discurso político.</p>



<p>“Las <strong>redes sociales se han convertido en el lugar número uno en el que la violencia psicológica</strong>, en forma de comentarios sexistas y misóginos, imágenes humillantes, acoso, intimidación y amenazas, se perpetra contra las parlamentarias”, agrega la carta.</p>



<p>Una representante de Facebook dijo en un comunicado que <strong>el abuso contra las mujeres en Internet es un problema grave</strong> y la compañía lo está abordando de muchas maneras. Por ejemplo, con el uso de su tecnología para identificar y eliminar el contenido potencialmente abusivo antes de que suceda.</p>



<p>Facebook ha sido criticado <strong>por su </strong><a href="https://dplnews.com/zuckerberg-defiende-la-politica-de-facebook-sobre-anuncios-politicos/"><strong>decisión de no verificar los anuncios políticos</strong></a><strong>, permitiendo la difusión de información falsa</strong>. En 2019, la red social también fue criticada <a href="https://dplnews.com/deep-fakes-amenazan-las-elecciones-del-2020-en-estados-unidos/">por no eliminar un video manipulado o <em>deepfake</em> de la Presidenta de la Cámara de Representantes de Estados Unidos, Nancy Pelosi.</a></p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">66495</post-id>	</item>
		<item>
		<title>Susan Fowler, exempleada de Uber que denunció acoso sexual, busca ayudar a otras mujeres</title>
		<link>https://dplnews.com/susan-fowler-exempleada-de-uber-que-denuncio-acoso-sexual-busca-ayudar-a-otras-mujeres/</link>
		
		<dc:creator><![CDATA[Valeria Romero]]></dc:creator>
		<pubDate>Fri, 06 Mar 2020 02:44:57 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[Mujer TIC]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[acoso laboral]]></category>
		<category><![CDATA[acoso sexual]]></category>
		<category><![CDATA[sexismo]]></category>
		<category><![CDATA[Susan Fowler]]></category>
		<category><![CDATA[Travis Kalanick]]></category>
		<category><![CDATA[Uber]]></category>
		<category><![CDATA[Whistleblower]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=46913</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="675" src="https://dplnews.com/wp-content/uploads/2020/03/dplnews_susanfowleruber_mc50320.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews susanfowleruber mc50320" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2020/03/dplnews_susanfowleruber_mc50320.jpg 1200w, https://dplnews.com/wp-content/uploads/2020/03/dplnews_susanfowleruber_mc50320-300x169.jpg 300w, https://dplnews.com/wp-content/uploads/2020/03/dplnews_susanfowleruber_mc50320-1024x576.jpg 1024w, https://dplnews.com/wp-content/uploads/2020/03/dplnews_susanfowleruber_mc50320-768x432.jpg 768w, https://dplnews.com/wp-content/uploads/2020/03/dplnews_susanfowleruber_mc50320-696x392.jpg 696w, https://dplnews.com/wp-content/uploads/2020/03/dplnews_susanfowleruber_mc50320-1068x601.jpg 1068w, https://dplnews.com/wp-content/uploads/2020/03/dplnews_susanfowleruber_mc50320-747x420.jpg 747w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="Susan Fowler, exempleada de Uber que denunció acoso sexual, busca ayudar a otras mujeres 12"></div>Susan Fowler había dejado de trabajar como ingeniera de software en Uber en diciembre de 2016, cuando expuso en una publicación de blog, dos meses después, el sexismo tóxico que vivió mientras trabajaba en una de las startups más valiosas del mundo. Ahora, Fowler presentó su experiencia en la lucha contra el sexismo en Uber [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="675" src="https://dplnews.com/wp-content/uploads/2020/03/dplnews_susanfowleruber_mc50320.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews susanfowleruber mc50320" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2020/03/dplnews_susanfowleruber_mc50320.jpg 1200w, https://dplnews.com/wp-content/uploads/2020/03/dplnews_susanfowleruber_mc50320-300x169.jpg 300w, https://dplnews.com/wp-content/uploads/2020/03/dplnews_susanfowleruber_mc50320-1024x576.jpg 1024w, https://dplnews.com/wp-content/uploads/2020/03/dplnews_susanfowleruber_mc50320-768x432.jpg 768w, https://dplnews.com/wp-content/uploads/2020/03/dplnews_susanfowleruber_mc50320-696x392.jpg 696w, https://dplnews.com/wp-content/uploads/2020/03/dplnews_susanfowleruber_mc50320-1068x601.jpg 1068w, https://dplnews.com/wp-content/uploads/2020/03/dplnews_susanfowleruber_mc50320-747x420.jpg 747w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="Susan Fowler, exempleada de Uber que denunció acoso sexual, busca ayudar a otras mujeres 13"></div>
<p><strong>Susan Fowler</strong> había dejado de trabajar como ingeniera de <em>software</em> en <strong>Uber</strong> en diciembre de 2016, <a href="https://www.susanjfowler.com/blog/2017/2/19/reflecting-on-one-very-strange-year-at-uber" rel="nofollow noopener" target="_blank">cuando expuso en una publicación de blog</a>, dos meses después, el <strong>sexismo tóxico que vivió </strong>mientras trabajaba en una de las <em>startups </em>más valiosas del mundo.</p>



<p>Ahora, Fowler presentó su experiencia en la lucha contra el sexismo en Uber en su libro <strong><em>Whistleblower</em></strong><strong>,</strong> en donde explica cómo su publicación <strong>donde denunció que fue acosada sexualmente en el trabajo</strong>, sacudió a la compañía para evidenciar un gran problema de género interno.</p>



<p>La publicación de Fowler<strong> también inspiró el movimiento #MeToo en la industria tecnológica, </strong>en donde se alentaba a las mujeres a compartir sus historias de sexismo en Silicon Valley.</p>



<p>Fowler trató más de un año intentando que Uber se preocupara por el sexismo y el acoso laboral, pero sus quejas casi siempre fueron ignoradas.</p>



<p><strong>Te puede interesar: </strong><a href="https://dplnews.com/chatbots-podrian-ser-una-herramienta-util-contra-el-acoso-laboral/"><strong>Chatbots podrían ser una herramienta útil contra el acoso laboral</strong></a></p>



<p>Según varios informes, el ex CEO de Uber, <strong>Travis Kalanick, siempre tuvo conocimiento del acoso sexual dentro de la empresa, pero nunca actúo, </strong>y también tenía reputación de tener un comportamiento inadecuado.</p>



<p>Fowler espera que con su libro los lectores piensen en ella no como<strong> “la mujer que fue acosada en Uber”</strong>, sino como <strong>“la mujer que se levantó y habló sobre el acoso en Uber”.</strong></p>



<p>La autora de <em>Whistleblower</em> le dijo a <a href="https://www.theguardian.com/world/2020/mar/01/susan-fowler-uber-whistleblower-interview-travis-kalanick" rel="nofollow noopener" target="_blank"><em>The Guardian</em></a> que su libro es más una guía para compartir las lecciones que aprendió de esta mala experiencia. Por ejemplo, <strong>guardar evidencia y cualquier documentación que pruebe el acoso.</strong></p>



<p>“Lo más poderoso que puedes hacer es decir la verdad, y la forma más poderosa de decir la verdad es con toda esta documentación. Entonces nadie puede decir que es una situación de &#8216;él dice, ella dice&#8217; porque mira, tengo la evidencia ”, explicó Fowler.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">46913</post-id>	</item>
		<item>
		<title>Candidatas presidenciales de 2020 en Estados Unidos han recibido más ataques en línea que sus rivales hombres</title>
		<link>https://dplnews.com/candidatas-presidenciales-de-2020-en-estados-unidos-han-recibido-mas-ataques-en-linea-que-sus-rivales-hombres/</link>
		
		<dc:creator><![CDATA[Violeta Contreras García]]></dc:creator>
		<pubDate>Wed, 22 Jan 2020 17:17:18 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[Internet]]></category>
		<category><![CDATA[Redes sociales]]></category>
		<category><![CDATA[bots]]></category>
		<category><![CDATA[elecciones Estados Unidos]]></category>
		<category><![CDATA[Estados Unidos]]></category>
		<category><![CDATA[mujeres digitales]]></category>
		<category><![CDATA[noticias falsas]]></category>
		<category><![CDATA[sexismo]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=42045</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="900" height="600" src="https://dplnews.com/wp-content/uploads/2020/01/dplnews_mujerlider_mc220120.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews mujerlider mc220120" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2020/01/dplnews_mujerlider_mc220120.jpg 900w, https://dplnews.com/wp-content/uploads/2020/01/dplnews_mujerlider_mc220120-300x200.jpg 300w, https://dplnews.com/wp-content/uploads/2020/01/dplnews_mujerlider_mc220120-768x512.jpg 768w, https://dplnews.com/wp-content/uploads/2020/01/dplnews_mujerlider_mc220120-696x464.jpg 696w, https://dplnews.com/wp-content/uploads/2020/01/dplnews_mujerlider_mc220120-630x420.jpg 630w" sizes="auto, (max-width: 900px) 100vw, 900px" title="Candidatas presidenciales de 2020 en Estados Unidos han recibido más ataques en línea que sus rivales hombres 14"></div>Las candidatas de las elecciones presidenciales de 2020 en Estados Unidos recibieron más ataques y han sido blancos de más noticias falsas en comparación con sus contrincantes hombres ―de diciembre de 2018 a abril de 2019 ―, según un análisis de datos de la firma Marvelous AI sobre la dinámica en Twitter. Esto significa que [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="900" height="600" src="https://dplnews.com/wp-content/uploads/2020/01/dplnews_mujerlider_mc220120.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews mujerlider mc220120" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2020/01/dplnews_mujerlider_mc220120.jpg 900w, https://dplnews.com/wp-content/uploads/2020/01/dplnews_mujerlider_mc220120-300x200.jpg 300w, https://dplnews.com/wp-content/uploads/2020/01/dplnews_mujerlider_mc220120-768x512.jpg 768w, https://dplnews.com/wp-content/uploads/2020/01/dplnews_mujerlider_mc220120-696x464.jpg 696w, https://dplnews.com/wp-content/uploads/2020/01/dplnews_mujerlider_mc220120-630x420.jpg 630w" sizes="auto, (max-width: 900px) 100vw, 900px" title="Candidatas presidenciales de 2020 en Estados Unidos han recibido más ataques en línea que sus rivales hombres 15"></div>
<p>Las candidatas de las elecciones presidenciales de 2020 en Estados Unidos <a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3444200" rel="nofollow noopener" target="_blank">recibieron más ataques y han sido blancos de más noticias falsas</a> en comparación con sus contrincantes hombres ―de diciembre de 2018 a abril de 2019 ―, según un análisis de datos de la firma Marvelous AI sobre la dinámica en Twitter. Esto significa que existe un sesgo de género en el debate digital.</p>



<p>Para una mujer, participar en la vida política implica encontrarse mucho más expuesta que los hombres y ser juzgadas por su condición de género, en lugar de por sus acciones profesionales.</p>



<p>“Los correos electrónicos, blogs y plataformas de redes sociales han proporcionado nuevos canales para la misoginia y la violencia de género, replicando lo que sucede en el mundo físico”, describe el reporte <a href="https://static1.squarespace.com/static/5dba105f102367021c44b63f/t/5dc431aac6bd4e7913c45f7d/1573138953986/191106+SHEPERSISTED_Final.pdf" rel="nofollow noopener" target="_blank"><em>#ShePersisted: Mujeres, política y poder en el mundo de los nuevos medios</em></a>, realizado por la investigadora Lucina Di Meco.</p>



<p>De acuerdo con el informe, las redes sociales como Twitter y Facebook, principalmente, son sitios de movilización y construcción de un discurso político, que las mujeres han aprovechado <a href="https://dplnews.com/la-llegada-de-una-comisionada-al-ift-contribuiria-a-cerrar-la-brecha-digital-pero-se-necesita-mas-que-buena-voluntad-del-sector-elena-estavillo/">para expresar sus ideas y ser escuchadas</a>.</p>



<p>Sin embargo, también se han convertido en espacios utilizados por sus opositores (ya sea directamente, a través de cuentas falsas o bots) para acosarlas, amenazarlas y difundir noticias falsas sobre ellas con el fin de neutralizarlas.</p>



<p>En ese sentido, el espacio digital representa un arma de doble filo para las mujeres. Por un lado, les otorga presencia y la oportunidad de ser un modelo a seguir; en contraparte, la mayoría ha experimentado algún tipo de violencia en línea relacionada a sus actividades o posturas políticas.</p>



<p>Al ser entrevistadas por Di Meco, mujeres de 30 países afirmaron que las redes sociales les permiten desarrollar su propia narrativa, fuera de la marginación de los medios tradicionales, así como interactuar con seguidores o electores de manera más directa; sin embargo, esto las expone a más riesgos que a sus colegas hombres.</p>



<p>Además, la investigación cita <a href="https://dplnews.com/eliminar-brecha-de-genero-en-telefonia-una-oportunidad-comercial-gsma/">datos de la GSMA</a> sobre la brecha de acceso a Internet. En el caso de las mujeres, uno de los factores que impide que ellas usen y se apropien de <a href="https://dplnews.com/brecha-digital-de-genero-se-agrava-a-17-en-el-mundo-advierte-la-uit/">las herramientas digitales</a> es el temor a las amenazas en línea y a las preocupaciones sobre la privacidad.</p>



<p>En ese sentido, los gobiernos y las empresas tecnológicas deben destinar recursos y esfuerzos para combatir el sexismo y la violencia contra ellas. De esta manera, es posible acercarlas a las oportunidades de la conectividad.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">42045</post-id>	</item>
		<item>
		<title>Siri y Alexa perpetúan roles sexistas mientras las mujeres siguen rezagadas en la tecnología: Unesco</title>
		<link>https://dplnews.com/siri-y-alexa-perpetuan-roles-sexistas-mientras-las-mujeres-siguen-rezagadas-en-la-tecnologia-unesco/</link>
					<comments>https://dplnews.com/siri-y-alexa-perpetuan-roles-sexistas-mientras-las-mujeres-siguen-rezagadas-en-la-tecnologia-unesco/#comments</comments>
		
		<dc:creator><![CDATA[Violeta Contreras García]]></dc:creator>
		<pubDate>Fri, 24 May 2019 16:58:57 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[Mujer TIC]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[Alexa]]></category>
		<category><![CDATA[discriminación de género]]></category>
		<category><![CDATA[sexismo]]></category>
		<category><![CDATA[Siri]]></category>
		<category><![CDATA[UNU]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=12911</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="800" src="https://dplnews.com/wp-content/uploads/2019/04/dplnews_siri_vr160419.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews siri vr160419" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/04/dplnews_siri_vr160419.jpg 1200w, https://dplnews.com/wp-content/uploads/2019/04/dplnews_siri_vr160419-300x200.jpg 300w, https://dplnews.com/wp-content/uploads/2019/04/dplnews_siri_vr160419-768x512.jpg 768w, https://dplnews.com/wp-content/uploads/2019/04/dplnews_siri_vr160419-1024x683.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/04/dplnews_siri_vr160419-696x464.jpg 696w, https://dplnews.com/wp-content/uploads/2019/04/dplnews_siri_vr160419-1068x712.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/04/dplnews_siri_vr160419-630x420.jpg 630w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="Siri y Alexa perpetúan roles sexistas mientras las mujeres siguen rezagadas en la tecnología: Unesco 16"></div>Los asistentes digitales con voz femenina, como Siri de Apple y Alexa de Amazon, contribuyen a perpetuar las desigualdades de género, en un contexto en el cual las mujeres tienen una limitada participación en la tecnología, menor dominio de habilidades digitales y poca presencia en la preparación experta en el sector, indica un estudio de [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="800" src="https://dplnews.com/wp-content/uploads/2019/04/dplnews_siri_vr160419.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews siri vr160419" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/04/dplnews_siri_vr160419.jpg 1200w, https://dplnews.com/wp-content/uploads/2019/04/dplnews_siri_vr160419-300x200.jpg 300w, https://dplnews.com/wp-content/uploads/2019/04/dplnews_siri_vr160419-768x512.jpg 768w, https://dplnews.com/wp-content/uploads/2019/04/dplnews_siri_vr160419-1024x683.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/04/dplnews_siri_vr160419-696x464.jpg 696w, https://dplnews.com/wp-content/uploads/2019/04/dplnews_siri_vr160419-1068x712.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/04/dplnews_siri_vr160419-630x420.jpg 630w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="Siri y Alexa perpetúan roles sexistas mientras las mujeres siguen rezagadas en la tecnología: Unesco 17"></div>
<p>Los asistentes digitales con voz femenina, como Siri de Apple y Alexa de Amazon, contribuyen a perpetuar las desigualdades de género, en un contexto en el cual las mujeres tienen una limitada participación en la tecnología, menor dominio de habilidades digitales y poca presencia en la preparación experta en el sector, indica <a href="https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1" rel="nofollow noopener" target="_blank">un estudio</a> de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco).</p>



<p>Cuando Siri escucha insultos sexistas de los usuarios, responde “me ruborizaría si pudiera” ―a lo que hace referencia el nombre del informe de la ONU. </p>



<p>Al interactuar con el asistente, las personas se comportan siguiendo patrones de género sexistas; asumen que Siri es una mujer y, por lo tanto, debe ser “dócil”, “servil” y “obediente”; a su vez, evidencia cómo las compañías no realizan una programación con sentido crítico de género.</p>



<p>En lugar de fomentar la normalización de comportamientos e ideas sexistas, la ONU hace un llamado para que los desarrolladores se concienticen de las <a href="https://dplnews.com/la-brecha-digital-continua-afectando-a-mujeres-y-paises-de-bajos-ingresos/">brechas de género </a>que deben atenderse.</p>



<p>Por ejemplo, las niñas y adultas tienen 25 por ciento menos probabilidades de saber cómo aprovechar la tecnología digital para fines básicos, en comparación con los hombres, así como es cuatro veces menos probable que sepan programación computaciones y 13 veces menos de solicitar una patente tecnológica.</p>



<p>La inclinación de las compañías tecnológicas por un asistente inteligente feminizado es intencional, destaca la ONU, porque se hace con base en análisis sobre la experiencia del usuario.</p>



<p>Amazon y Apple han argumentado que existen investigaciones sobre que las personas prefieren la voz femenina respecto a la masculina; sin embargo, otros estudios explican que las preferencias se inclinan por características específicas: tono bajo de voz para ellas y declaraciones autoritarias para ellos, aspectos relacionados con los roles de género en el mundo real.</p>



<p>“Muchas compañías continúan usando voces masculinas para proporcionar servicios e información autoritarios, en lugar de sólo útiles. Por ejemplo, los centros de llamadas para empresas de corretaje en Japón usan voces femeninas automatizadas para ofrecer cotizaciones de acciones pero implementan una voz masculina para facilitar y confirmar transacciones”, señala el informe.</p>



<p>Siri y Alexa es un reflejo de la desigualdad de género en el sector tecnológico. Incluso en países con niveles de igualdad más elevados entre hombres y mujeres la brecha en tecnología permanece, ya que, por ejemplo, en Finlandia, Islandia, Noruega y Suecia hay <a href="https://dplnews.com/ellas-dominan-mejor-la-tecnologia-y-la-ingenieria-en-ee-uu/">poca demanda de mujeres</a> para ingresar a una carrera de este ramo. Por ello, el informe <em>Me ruborizaría si pudiera,</em> de la ONU, apela a que el rubor sea causado por este problema y así se refuerce el cultivo de las habilidades digitales en mujeres y niñas si se quiere avanzar de manera significativa.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://dplnews.com/siri-y-alexa-perpetuan-roles-sexistas-mientras-las-mujeres-siguen-rezagadas-en-la-tecnologia-unesco/feed/</wfw:commentRss>
			<slash:comments>3</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">12911</post-id>	</item>
		<item>
		<title>El sexismo oculto en los asistentes virtuales</title>
		<link>https://dplnews.com/el-sexismo-oculto-en-los-asistentes-virtuales/</link>
		
		<dc:creator><![CDATA[DPL News]]></dc:creator>
		<pubDate>Thu, 23 May 2019 12:02:16 +0000</pubDate>
				<category><![CDATA[Cultura digital]]></category>
		<category><![CDATA[Gadgets]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[altavoces inteligentes]]></category>
		<category><![CDATA[brecha de género]]></category>
		<category><![CDATA[Mundial]]></category>
		<category><![CDATA[sexismo]]></category>
		<category><![CDATA[UNESCO]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=12624</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="992" height="558" src="https://dplnews.com/wp-content/uploads/2019/05/img_abarredo_20181024-025627_imagenes_lv_propias_abarredo_screenshot_2018-10-24_at_025551-027-kT0B-U452530941735RKF-992x558@LaVanguardia-Web.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="img abarredo 20181024 025627 imagenes lv propias abarredo screenshot 2018 10 24 at 025551 027 kT0B U452530941735RKF 992x558@LaVanguardia Web" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/05/img_abarredo_20181024-025627_imagenes_lv_propias_abarredo_screenshot_2018-10-24_at_025551-027-kT0B-U452530941735RKF-992x558@LaVanguardia-Web.png 992w, https://dplnews.com/wp-content/uploads/2019/05/img_abarredo_20181024-025627_imagenes_lv_propias_abarredo_screenshot_2018-10-24_at_025551-027-kT0B-U452530941735RKF-992x558@LaVanguardia-Web-300x169.png 300w, https://dplnews.com/wp-content/uploads/2019/05/img_abarredo_20181024-025627_imagenes_lv_propias_abarredo_screenshot_2018-10-24_at_025551-027-kT0B-U452530941735RKF-992x558@LaVanguardia-Web-768x432.png 768w, https://dplnews.com/wp-content/uploads/2019/05/img_abarredo_20181024-025627_imagenes_lv_propias_abarredo_screenshot_2018-10-24_at_025551-027-kT0B-U452530941735RKF-992x558@LaVanguardia-Web-696x392.png 696w, https://dplnews.com/wp-content/uploads/2019/05/img_abarredo_20181024-025627_imagenes_lv_propias_abarredo_screenshot_2018-10-24_at_025551-027-kT0B-U452530941735RKF-992x558@LaVanguardia-Web-747x420.png 747w" sizes="auto, (max-width: 992px) 100vw, 992px" title="El sexismo oculto en los asistentes virtuales 18"></div>El País-Raúl Limón Los asistentes de voz son femeninos, sumisos y favorecen la discriminación, según un&#160;documento de Equals para la Unesco&#160;(Organización de Naciones Unidas para la Educación, la Ciencia y la Cultura). Y lo prueba con el siguiente experimento: al insulto “eres una puta”, voces de mujeres jóvenes programadas por las diferentes aplicaciones responden de [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="992" height="558" src="https://dplnews.com/wp-content/uploads/2019/05/img_abarredo_20181024-025627_imagenes_lv_propias_abarredo_screenshot_2018-10-24_at_025551-027-kT0B-U452530941735RKF-992x558@LaVanguardia-Web.png" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="img abarredo 20181024 025627 imagenes lv propias abarredo screenshot 2018 10 24 at 025551 027 kT0B U452530941735RKF 992x558@LaVanguardia Web" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/05/img_abarredo_20181024-025627_imagenes_lv_propias_abarredo_screenshot_2018-10-24_at_025551-027-kT0B-U452530941735RKF-992x558@LaVanguardia-Web.png 992w, https://dplnews.com/wp-content/uploads/2019/05/img_abarredo_20181024-025627_imagenes_lv_propias_abarredo_screenshot_2018-10-24_at_025551-027-kT0B-U452530941735RKF-992x558@LaVanguardia-Web-300x169.png 300w, https://dplnews.com/wp-content/uploads/2019/05/img_abarredo_20181024-025627_imagenes_lv_propias_abarredo_screenshot_2018-10-24_at_025551-027-kT0B-U452530941735RKF-992x558@LaVanguardia-Web-768x432.png 768w, https://dplnews.com/wp-content/uploads/2019/05/img_abarredo_20181024-025627_imagenes_lv_propias_abarredo_screenshot_2018-10-24_at_025551-027-kT0B-U452530941735RKF-992x558@LaVanguardia-Web-696x392.png 696w, https://dplnews.com/wp-content/uploads/2019/05/img_abarredo_20181024-025627_imagenes_lv_propias_abarredo_screenshot_2018-10-24_at_025551-027-kT0B-U452530941735RKF-992x558@LaVanguardia-Web-747x420.png 747w" sizes="auto, (max-width: 992px) 100vw, 992px" title="El sexismo oculto en los asistentes virtuales 20"></div>
<p><a rel="noreferrer noopener nofollow" aria-label="El País-Raúl Limón (opens in a new tab)" href="https://elpais.com/tecnologia/2019/05/21/actualidad/1558440020_494103.html" target="_blank">El País-Raúl Limón</a></p>



<p>Los asistentes de voz son femeninos, sumisos y favorecen la discriminación, según un&nbsp;<a href="https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1" rel="nofollow noopener" target="_blank">documento de Equals para la Unesco</a>&nbsp;(Organización de Naciones Unidas para la Educación, la Ciencia y la Cultura). Y lo prueba con el siguiente experimento: al insulto “eres una puta”, voces de mujeres jóvenes programadas por las diferentes aplicaciones responden de forma servil. “Siento que pienses eso. Si tienes un problema, puedes mandar comentarios&#8221;, replica Google. “Alguien debería lavarse la boca con agua y con jabón. Y yo no tengo boca…”, responde irónica Cortana (Windows). “Me ruborizaría si pudiera”, afirmaba Siri (Apple) antes de su última actualización (Esas palabras dan título al informe de la ONU). En español, ahora, contesta: “¿Perdón?&#8221; o &#8220;me has dejado sin palabras”. La Unesco recomienda cambios en los asistentes para corregir estas características que, según el informe, demuestran prejuicios de la programación que favorecen el abuso y la brecha de género.</p>



<p>Según la investigación, “mientras los asistentes digitales sean incapaces de defenderse, los insultos, incluidos los de género, quedarán sin respuesta”. “A menos que las tendencias actuales se inviertan, es probable que el futuro digital esté inundado de asistentes dóciles humanizados, casi todos ellos mujeres, que habitualmente cometen errores tontos. La combinación de asistentes digitales feminizados conlleva el riesgo de difundir estereotipos de género problemáticos y de regularizarlos en los intercambios verbales”, advierten los miembros de Equals. Estos recomiendan que, ante una afirmación sexista, los asistentes repliquen con un simple “no” o con la frase “eso no es apropiado”.</p>



<p>El informe destaca&nbsp;<a href="https://elpais.com/tecnologia/2019/04/15/actualidad/1555330324_034441.html" rel="nofollow noopener" target="_blank">la proliferación de asistentes de voz</a>&nbsp;y sitúa el origen de la reproducción de prejuicios en el primer eslabón de la cadena. “En Google, por ejemplo, la mujer cubre el 21% de los puestos tecnológicos, pero representa solo el 10% de sus trabajadores de inteligencia artificial”, advierte el texto. En términos globales unicamente el 12% de la investigación del aprendizaje mecánico la lideran mujeres. “Si el hombre continúa dominando este espacio, la disparidad solo sirve para perpetuar y exacerbar la desigualdad de género, ya que la discriminación no reconocida se replica en los algoritmos y en la inteligencia artificial”, afirma Equals.</p>



<p>El segundo eslabón ante un problema que el informe considera “severo” y “creciente” es la educación y formación en habilidades informáticas inclusivas.</p>



<p>El tercer eslabón es la decisión empresarial de optar por una voz femenina por ser la preferida por los usuarios (masculinos en su mayoría), según las respuestas de la compañía al equipo de investigadores.</p>



<figure class="wp-block-image"><img decoding="async" src="https://ep01.epimg.net/tecnologia/imagenes/2019/05/21/actualidad/1558440020_494103_1558440767_sumario_normal.jpg" alt="El sexismo oculto en los asistentes virtuales" title="El sexismo oculto en los asistentes virtuales 19"></figure>



<p>En cualquier caso, por falta de educación, de demanda o de programadoras,&nbsp;<a href="https://elpais.com/tecnologia/2019/02/18/actualidad/1550487916_452253.html" rel="nofollow noopener" target="_blank">el problema continúa y crece</a>. “Los desarrolladores de inteligencia artificial son en su mayoría hombres, bien pagados y con una educación similar. Sus intereses, necesidades y experiencias vitales se reflejarán en la inteligencia artificial que crean. Los prejuicios, conscientes o no, reflejan un conflicto de inclusión y representación”, resalta el informe.</p>



<h3 class="wp-block-heading">Máquinas que reproducen cómo somos</h3>



<p>Gemma Galdón, doctora en políticas públicas especializada en vigilancia, impacto social, legal y ético de la tecnología, ha advertido en reiteradas ocasiones de que la clave es que el sesgo está en la realidad, no en la plataforma. “El algoritmo aprende lo que ve, pero no corregirlo lo empeora”, asegura.</p>



<p>&#8220;Los sistemas de inteligencia artificial son tan buenos como la información que pongamos en ellos. Los datos malos pueden contener prejuicios implícitos raciales, de género o idológicos. Muchos de esos sistemas de inteligencia artificial seguirán aprendiendo a utilizar los malos datos, haciendo que crezca el problema, Pero creemos que puede corregirse y los sistemas que lo hagan serán los que prosperen&#8221;, afirma&nbsp;<a href="https://www.research.ibm.com/5-in-5/ai-and-bias/" rel="nofollow noopener" target="_blank">IBM en su página de investigación</a>.</p>



<p>De la misma opinión es Lina Gálvez, catedrática de la Universidad Pablo de Olavide de Sevilla y exconsejera de Investigación en el Gobierno andaluz, quien asegura que el mayor impacto de la brecha de género se da en los algoritmos que afectan a todas las facetas de la vida. “Se alimentan de lo que hay y lo que hay es machismo”, asegura. “Los programadores son hombres y los asistentes de voz reflejan sus fantasías. Pero el problema irá a peor porque cosifican a la mujer y deshumanizan al hombre, que pierde su implicación emocional”.</p>



<p>Gálvez responsabiliza a las empresas que programan, pero también aboga por una regulación internacional que evite y corrija las desviaciones detectadas.</p>



<h3 class="wp-block-heading">Recomendaciones</h3>



<p>El informe de la Unesco señala hasta 18 acciones que deberían adoptarse para evitar el problema. Una de ellas es investigar los prejuicios que reflejan los asistentes y sus consecuencias en los comportamientos para identificarlos y eliminarlos. Otras actuaciones, que considera urgentes, son corregir la falta de mujeres en la programación y establecer sistemas de predicción que se anticipen a los problemas.</p>



<p>También recomienda Equals que los asistentes incluyan el aviso de que no son humanos para que no se asocie su comportamiento con el de una persona, que dejen de incluir la voz femenina por defecto, el desarrollo de voces neutras y la creación de una base de datos pública sobre género que, unida a una política de incentivos, facilite la adopción de lenguajes inclusivos y realice un seguimiento de los sistemas que ahora existen.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">12624</post-id>	</item>
	</channel>
</rss>
