<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>racismo algorítmico &#8211; DPL News</title>
	<atom:link href="https://dplnews.com/tag/racismo-algoritmico/feed/" rel="self" type="application/rss+xml" />
	<link>https://dplnews.com</link>
	<description>DPL News</description>
	<lastBuildDate>Mon, 06 Nov 2023 13:34:12 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://dplnews.com/wp-content/uploads/2020/03/logo-favicon-64x64-dplnews.png</url>
	<title>racismo algorítmico &#8211; DPL News</title>
	<link>https://dplnews.com</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">201771233</site>	<item>
		<title>Digital X Files &#124; Los peligrosos puntos ciegos de los algoritmos</title>
		<link>https://dplnews.com/los-peligrosos-puntos-ciegos-de-los-algoritmos/</link>
		
		<dc:creator><![CDATA[Violeta Contreras García]]></dc:creator>
		<pubDate>Mon, 06 Nov 2023 12:49:21 +0000</pubDate>
				<category><![CDATA[Digital X Files]]></category>
		<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[Editor's Picks]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[algoritmos]]></category>
		<category><![CDATA[racismo algorítmico]]></category>
		<category><![CDATA[relevante]]></category>
		<category><![CDATA[relevante tech]]></category>
		<category><![CDATA[sesgo algorítmico]]></category>
		<category><![CDATA[sesgo de género]]></category>
		<category><![CDATA[sesgos raciales]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=212943</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1280" height="867" src="https://dplnews.com/wp-content/uploads/2023/11/dplnews_x-files-sesgo-algoritmico_mc61123.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews x files sesgo algoritmico mc61123" decoding="async" fetchpriority="high" srcset="https://dplnews.com/wp-content/uploads/2023/11/dplnews_x-files-sesgo-algoritmico_mc61123.jpg 1280w, https://dplnews.com/wp-content/uploads/2023/11/dplnews_x-files-sesgo-algoritmico_mc61123-300x203.jpg 300w, https://dplnews.com/wp-content/uploads/2023/11/dplnews_x-files-sesgo-algoritmico_mc61123-1024x694.jpg 1024w, https://dplnews.com/wp-content/uploads/2023/11/dplnews_x-files-sesgo-algoritmico_mc61123-768x520.jpg 768w" sizes="(max-width: 1280px) 100vw, 1280px" title="Digital X Files | Los peligrosos puntos ciegos de los algoritmos 1"></div>Los sistemas de IA no reproducen por sí mismos los sesgos que permean en la sociedad, sino que son alimentados y entrenados con conjuntos de datos.]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1280" height="867" src="https://dplnews.com/wp-content/uploads/2023/11/dplnews_x-files-sesgo-algoritmico_mc61123.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews x files sesgo algoritmico mc61123" decoding="async" srcset="https://dplnews.com/wp-content/uploads/2023/11/dplnews_x-files-sesgo-algoritmico_mc61123.jpg 1280w, https://dplnews.com/wp-content/uploads/2023/11/dplnews_x-files-sesgo-algoritmico_mc61123-300x203.jpg 300w, https://dplnews.com/wp-content/uploads/2023/11/dplnews_x-files-sesgo-algoritmico_mc61123-1024x694.jpg 1024w, https://dplnews.com/wp-content/uploads/2023/11/dplnews_x-files-sesgo-algoritmico_mc61123-768x520.jpg 768w" sizes="(max-width: 1280px) 100vw, 1280px" title="Digital X Files | Los peligrosos puntos ciegos de los algoritmos 8"></div>
<p>Cuando <strong>Apple lanzó su tarjeta de crédito en 2019</strong>, usuarios, especialistas y legisladores de Estados Unidos se dieron cuenta de que la empresa de la manzana <strong>otorgaba <a href="https://dplnews.com/algoritmo-de-apple-card-sera-investigado-por-discriminar-a-mujeres/">líneas de crédito más bajas a las mujeres</a></strong>. Es decir, partía del <strong>sesgo de género</strong> referente a que las mujeres tenían menos posibilidades de pagar que los hombres.</p>



<p>Y no sólo es el caso de Apple: situaciones similares se han replicado en otros servicios financieros que utilizan algoritmos para determinar la asignación de préstamos, líneas de crédito, financiamientos, hipotecas y servicios relacionados.</p>



<p>Usualmente, los bancos utilizan sistemas de puntaje para decidir a quién es posible aprobar un crédito y qué tanto dinero prestarle, con base en su historial de pago y su carga de deuda. Ahora en la era digital, las empresas usan la Inteligencia Artificial (IA) para calcular una suerte de puntaje electrónico que permite calificar a las personas.&nbsp;</p>



<p>El problema es que los criterios que usa la IA para determinar a quién sí y a quién no otorgar una línea de crédito no siempre son transparentes. En su libro <em>Armas de destrucción matemática</em>, Cathy O’Neil explica cómo a veces <strong>la solvencia de una persona se establece con base en una mezcolanza de datos</strong> como el código postal, los patrones de navegación o los hábitos de compra en línea.</p>



<p class="has-background" style="background-color:#fff6f9"><strong>También lee: <a href="https://dplnews.com/vigilancia-masiva-poblacion-implicaciones-privacidad/">Sonría, lo estamos filmando</a></strong></p>



<p>Si vives en un barrio popular según la ubicación desde donde te conectas a Internet o navegas desde una computadora antigua; o si eres ama de casa o una madre soltera (de acuerdo con los datos de tu comportamiento en línea), <strong>probablemente no tengas dinero suficiente para pagar</strong>. Eso es lo que dice el peligroso sesgo algorítmico.</p>



<p>Además de Cathy O’Neil, diversos estudios ―académicos y de gobiernos como el de Estados Unidos― han advertido los riesgos de que los sistemas de Inteligencia Artificial repliquen sesgos existentes en el mundo, relacionados con la <strong>desigualdad de género</strong>, el <strong>racismo</strong> o las <strong>clases sociales</strong>, por ejemplo.</p>



<p>Los sistemas de IA son tecnologías de procesamiento de la información que integran modelos y algoritmos, los cuales pueden aprender y realizar tareas cognitivas para predecir resultados y tomar decisiones, tanto en entornos virtuales como materiales, según la definición de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco).</p>



<h3 class="wp-block-heading">Sesgos en la Inteligencia Artificial</h3>


<div class="wp-block-image">
<figure class="aligncenter"><img decoding="async" src="https://lh7-us.googleusercontent.com/QzRt4x22du-xTtgJwfY_e7t2w-KzdErikZqr30iKl9i_qS4oU6typBrcQgw__0Asf7CmVsxX-bh1YaEhmSbffWJoHCrtbqnfaRzi2iK1NMkr4XnfI4ODTM7_LxFE5ad3ym8VNsCBfhHmTcwIIFzHjcA" alt="QzRt4x22du xTtgJwfY e7t2w KzdErikZqr30iKl9i qS4oU6typBrcQgw 0Asf7CmVsxX" title="Digital X Files | Los peligrosos puntos ciegos de los algoritmos 2"><figcaption class="wp-element-caption"><em>Fuente: British Medical Journal</em></figcaption></figure>
</div>

<div class="wp-block-image">
<figure class="aligncenter"><img decoding="async" src="https://lh7-us.googleusercontent.com/QzRt4x22du-xTtgJwfY_e7t2w-KzdErikZqr30iKl9i_qS4oU6typBrcQgw__0Asf7CmVsxX-bh1YaEhmSbffWJoHCrtbqnfaRzi2iK1NMkr4XnfI4ODTM7_LxFE5ad3ym8VNsCBfhHmTcwIIFzHjcA" alt="QzRt4x22du xTtgJwfY e7t2w KzdErikZqr30iKl9i qS4oU6typBrcQgw 0Asf7CmVsxX" title="Digital X Files | Los peligrosos puntos ciegos de los algoritmos 2"><figcaption class="wp-element-caption"><em>Fuente: British Medical Journal</em></figcaption></figure>
</div>


<p>¿Cómo puede discriminar la tecnología? <strong>¿Los algoritmos son sexistas y misóginos?</strong> En estricto sentido, los sistemas de IA no reproducen por sí mismos los sesgos que permean en la sociedad, sino que son alimentados y entrenados con conjuntos de datos. Esto implica que si la información de la que se nutre en un principio es sesgada entonces el algoritmo también tendrá puntos ciegos.</p>



<h2 class="wp-block-heading">¿Cómo abordar los sesgos de la IA?</h2>



<p>Más allá del género, <strong>el sesgo algorítmico presenta riesgos para la seguridad, la justicia, o el ejercicio de derechos</strong>. Se han registrado casos en los que los sistemas de reconocimiento facial que usan la IA cometen más errores al identificar a personas de color con más frecuencia que a personas blancas. Esto puede desencadenar detenciones arbitrarias e inclusive impunidad.</p>



<p>Un estudio de Georgia Tech también encontró que algunos sistemas de Inteligencia Artificial implementados en los vehículos autónomos tenían un desempeño deficiente al detectar personas de piel oscura, lo cual puede poner en riesgo la vida de estos peatones.</p>



<p class="has-background" style="background-color:#fff6f9"><strong>Recomendamos: <a href="https://dplnews.com/la-inteligencia-artificial-si-es-sexista-pero-no-es-su-culpa/">La Inteligencia Artificial sí es sexista, pero no es su culpa</a></strong></p>



<p>Los casos en los que se manifiesta el sesgo algorítmico parecen haber sido sacados de un capítulo de Black Mirror. Pero en realidad la Inteligencia Artificial es una tecnología muy poderosa que puede tener un impacto positivo en la productividad de los países, el crecimiento económico e incluso en la resolución de problemas sociales. Los sistemas de IA ya están siendo utilizados en estudios para <strong>prevenir enfermedades como el cáncer o el Alzheimer</strong>.</p>


<div class="wp-block-image">
<figure class="aligncenter"><img decoding="async" src="https://lh7-us.googleusercontent.com/KlCw5Kf22zNUEFdu3Us6fAw4ad6woHsbGsnlOietUjG8Oo2IuGVSrWHMsO90z0b0E2cbCRD4MFwUGlsbzX6ibhhq8j8FKpyIeJgwyEL_FLYxNNj3EuOljghwXj5zHoMYrVKM54qP4aCHCm2Gdh4xpGY" alt="" title="Digital X Files | Los peligrosos puntos ciegos de los algoritmos 4"></figure>
</div>

<div class="wp-block-image">
<figure class="aligncenter"><img decoding="async" src="https://lh7-us.googleusercontent.com/KlCw5Kf22zNUEFdu3Us6fAw4ad6woHsbGsnlOietUjG8Oo2IuGVSrWHMsO90z0b0E2cbCRD4MFwUGlsbzX6ibhhq8j8FKpyIeJgwyEL_FLYxNNj3EuOljghwXj5zHoMYrVKM54qP4aCHCm2Gdh4xpGY" alt="" title="Digital X Files | Los peligrosos puntos ciegos de los algoritmos 4"></figure>
</div>


<p>Sin embargo, el <strong>aprovechamiento ético e inclusivo de la Inteligencia Artificial</strong> depende de que los datos con los que son creados y entrenados los algoritmos sean lo suficientemente confiables, transparentes, diversos e inclusivos.&nbsp;</p>



<p>Por ejemplo, si un producto o servicio está dirigido al público masivo en el ámbito de la salud, es importante que se tomen en cuenta los datos de mujeres, hombres, la comunidad sexo diversa, las personas afrodescendientes, los grupos indígenas, y un largo etcétera.</p>



<p>Abordar los sesgos en los algoritmos de la IA tiene que ser una tarea temprana, de la que los gobiernos, empresas, la academia y organizaciones tomen acción desde el momento uno; es decir, que se eviten y se prevengan, pues los daños generados a partir de esta visión con puntos ciegos pueden ser amplios: desde la discriminación hasta la exclusión social.</p>



<p>En ese análisis y toma de conciencia de los sesgos, las empresas tecnológicas juegan un rol esencial. En 2019, tras recibir críticas contra su tarjeta de crédito, <strong>Apple negó que su tecnología tuviera algún <a href="https://dplnews.com/asi-afecta-el-sesgo-de-genero-a-los-sistemas-tecnologicos-de-reconocimiento/">sesgo de género</a></strong>, ya que sostuvo que ser hombre o mujer ni siquiera era un elemento que se evaluara al brindar la tarjeta.</p>



<p class="has-background" style="background-color:#fff6f9"><strong>Relacionado: <a href="https://dplnews.com/reconocimiento-facial-respalda-el-sesgo-algoritmico-expertos/">Reconocimiento facial respalda el sesgo algorítmico: expertos</a></strong></p>



<p>La compañía tecnológica simplemente dijo que el género quedó fuera de la ecuación. Pero los algoritmos no pueden ignorar una realidad social, y Apple no explicó cómo estaba abordando esta problemática para que su tecnología fuera realmente inclusiva.</p>



<h2 class="wp-block-heading">¿Cómo abordar los sesgos en los algoritmos?</h2>



<ol class="wp-block-list" type="1">
<li>Identificar los contextos en los que la IA puede ayudar a corregir los sesgos y aquellos en los que existen riesgos altos de exacerbar desigualdades sociales.</li>



<li>Establecer procesos y prácticas de prueba para mitigar los sesgos en los sistemas de IA.</li>



<li>Participar en la discusión rigurosa acerca de los potenciales sesgos en las decisiones humanas.</li>



<li>Explorar profundamente cómo humanos y máquinas pueden trabajar mejor juntos.</li>



<li>Invertir más en la investigación sobre los sesgos de los algoritmos, poner más datos a disposición de la investigación y adoptar un enfoque multidisciplinario.</li>



<li>Invertir más en la diversificación del campo de la Inteligencia Artificial.</li>
</ol>



<p><em>Fuente: McKinsey</em></p>


<div class="wp-block-image">
<figure class="aligncenter"><img decoding="async" src="https://lh7-us.googleusercontent.com/EQShgKnuNjdpoQutvrVkbnhC27nuzYwiCqu1giu6pngkBCEdy8VdL6dFS_LofsnClif7PxojhvHzO9QRD7mvteEVBcj4I8LwC0C9rTOGp4LQ9kwz_a0PtHX3xBavSkFoAjiMEw2k9C8uU4HIQB4UyVs" alt="" title="Digital X Files | Los peligrosos puntos ciegos de los algoritmos 6"></figure>
</div>

<div class="wp-block-image">
<figure class="aligncenter"><img decoding="async" src="https://lh7-us.googleusercontent.com/EQShgKnuNjdpoQutvrVkbnhC27nuzYwiCqu1giu6pngkBCEdy8VdL6dFS_LofsnClif7PxojhvHzO9QRD7mvteEVBcj4I8LwC0C9rTOGp4LQ9kwz_a0PtHX3xBavSkFoAjiMEw2k9C8uU4HIQB4UyVs" alt="" title="Digital X Files | Los peligrosos puntos ciegos de los algoritmos 6"></figure>
</div>


<p>También <strong>es importante que los grupos técnicos encargados del entrenamiento de la Inteligencia Artificial sean diversos e inclusivos</strong>. Hoy en día las mujeres y las minorías étnicas y sexuales, al igual que otros grupos sociales, están subrepresentadas en los equipos de ingenieros y científicos de datos.</p>



<p>Cuando sólo el grupo con más privilegios en la sociedad se sienta a la mesa de las decisiones importantes, es probable que muchas problemáticas y variables queden fuera y se generen mecanismos de exclusión. Una aplicación de salud puede no tomar en cuenta que las mujeres menstrúan y pasan por la menopausia, por ejemplo, o que hay una mayor predisposición genética de ciertas etnias a determinados padecimientos.</p>



<p>Por eso, la Unesco elaboró una serie de recomendaciones para el uso ética de la IA. Especialmente, el organismo advierte la necesidad de <strong>abordar los riesgos de los sesgos algorítmicos durante todas las etapas de sus ciclos de vida</strong>: esto contempla la investigación, la concepción, el desarrollo, el despliegue y utilización.</p>



<p>Los sistemas de Inteligencia Artificial ya están presentes en casi cualquier ámbito de la vida: en la publicidad dirigida de las redes sociales, los asistentes de voz como Alexa o Siri, el sistema GPS de tu coche o en los comercios electrónicos. Su adopción seguirá creciendo, y al mismo tiempo debe haber un escrutinio riguroso sobre sus repercusiones éticas y de la responsabilidad empresarial de quienes implementan los algoritmos.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">212943</post-id>	</item>
		<item>
		<title>Reconocimiento facial respalda el sesgo algorítmico: expertos</title>
		<link>https://dplnews.com/reconocimiento-facial-respalda-el-sesgo-algoritmico-expertos/</link>
		
		<dc:creator><![CDATA[⁨Mayara Figueiredo]]></dc:creator>
		<pubDate>Mon, 03 Jul 2023 02:43:14 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[TRANSFORMACIÓN DIGITAL]]></category>
		<category><![CDATA[biometría]]></category>
		<category><![CDATA[Brasil]]></category>
		<category><![CDATA[diversidad]]></category>
		<category><![CDATA[personas negras]]></category>
		<category><![CDATA[racismo algorítmico]]></category>
		<category><![CDATA[reconocimiento facial]]></category>
		<category><![CDATA[relevante tech]]></category>
		<category><![CDATA[sesgos raciales]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=198452</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1280" height="576" src="https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews Aubio Ferreira e Thamires Educafro mc30623" decoding="async" srcset="https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623.jpeg 1280w, https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623-300x135.jpeg 300w, https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623-1024x461.jpeg 1024w, https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623-768x346.jpeg 768w" sizes="(max-width: 1280px) 100vw, 1280px" title="Reconocimiento facial respalda el sesgo algorítmico: expertos 9"></div>En Brasil, 90 por ciento de las personas detenidas a través de sistemas de reconocimiento facial son negras. Esto se debe a datos y software sesgados con un margen de error del 10 por ciento, una cifra inconcebible para muchos desarrolladores. Estos datos fueron presentados en FebrabanTech 2023, por especialistas en derecho digital y en [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1280" height="576" src="https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews Aubio Ferreira e Thamires Educafro mc30623" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623.jpeg 1280w, https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623-300x135.jpeg 300w, https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623-1024x461.jpeg 1024w, https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623-768x346.jpeg 768w" sizes="auto, (max-width: 1280px) 100vw, 1280px" title="Reconocimiento facial respalda el sesgo algorítmico: expertos 11"></div>
<p><strong><mark style="background-color:#f3d800" class="has-inline-color">En Brasil, 90 por ciento de las personas detenidas a través de <a href="https://dplnews.com/brasil-justicia-de-sao-paulo-prohibe-la-compra-de-20-mil-camaras-con-reconocimiento-facial/">sistemas de reconocimiento facial </a>son negras</mark></strong>. Esto se debe a datos y <em>software</em> sesgados con un margen de error del 10 por ciento, una cifra inconcebible para muchos desarrolladores. Estos datos fueron presentados en <a href="https://dplnews.com/tag/febrabantech/">FebrabanTech 2023</a>, por especialistas en derecho digital y en el área de tecnología del proyecto <strong>Educafro</strong>, orientado a la inclusión y permanencia de personas negras en distintos espacios, especialmente universitarios.</p>



<p>Un ejemplo de este problema, presentado en el taller <strong>“Racismo algorítmico: del concepto a la práctica en la sociedad cotidiana”</strong>, es el fatídico caso de la investigadora del MIT (Massachusetts Institute of Technology) Joy Buolamwini, quien inició un proyecto llamado Aspire Mirror, una herramienta desarrollada para diseñar máscaras digitales en el reflejo de quienes las usan.</p>



<p>Mediante el uso de un <em>software</em> genérico de reconocimiento facial, la científica, que es negra, descubrió que <strong>no se detectó su rostro</strong>. Tras descartar los problemas tecnológicos, hizo una prueba colocándose una máscara blanca sobre el rostro y fue reconocida de inmediato. La experiencia se menciona en el documental <strong>&#8220;<a href="https://www.netflix.com/title/81328723" rel="nofollow noopener" target="_blank">Coded Bias</a>&#8220;</strong>.</p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><img loading="lazy" decoding="async" width="900" height="506" src="https://dplnews.com/wp-content/uploads/2023/06/joy-buolamwini-mascara-branca_credito-divulgacao.jpg" alt="joy buolamwini mascara branca credito divulgacao" class="wp-image-198409" title="Reconocimiento facial respalda el sesgo algorítmico: expertos 10" srcset="https://dplnews.com/wp-content/uploads/2023/06/joy-buolamwini-mascara-branca_credito-divulgacao.jpg 900w, https://dplnews.com/wp-content/uploads/2023/06/joy-buolamwini-mascara-branca_credito-divulgacao-300x169.jpg 300w, https://dplnews.com/wp-content/uploads/2023/06/joy-buolamwini-mascara-branca_credito-divulgacao-768x432.jpg 768w" sizes="auto, (max-width: 900px) 100vw, 900px" /></figure>
</div>


<p>“Toda esta tecnología [de <a href="https://dplnews.com/?s=biometr%C3%ADa">biometría</a> y reconocimiento facial] promete seguridad y practicidad. ¿Pero para quién?”, cuestionó Thamires Orefice, consultora legal de Educafro, especializada en derecho digital. “<strong>No hay datos que demuestren esta seguridad</strong> y apenas tenemos tiempo para aplicar y monitorear la velocidad de este tipo de tecnologías, por lo que <strong>es necesaria una mejor regulación y revisión</strong>”, agregó.</p>



<p>Por eso, la experta aclaró que <strong>la posición de Educafro es realmente la prohibición de este sistema</strong> o al menos una revisión actualizada de los datos para aplicarlo.</p>



<h2 class="wp-block-heading"><strong>El problema del sesgo del algoritmo</strong></h2>



<p>Como se sabe, la tecnología de reconocimiento facial se basa en <em>software</em> y algoritmos que mapean patrones en los rostros de las personas que utilizan una base de datos. Y, como explicó Áubio Ferreira, ingeniero informático e investigador de Educafro Tech, <strong>las máquinas no son productos cognitivos</strong>, se alimentan de una base de quienes las entrenan y desarrollan estos algoritmos: en definitiva, un grupo homogéneo, <strong>formado por hombres blancos y cisgénero</strong>.</p>



<p>“A nivel de TI, lo que hay que hacer es un refinamiento de los datos. El error del 10 por ciento en el reconocimiento facial no es aceptable; <strong>1 por ciento en el área de búsqueda ya es un número enorme</strong>. <mark style="background-color:#f3d800" class="has-inline-color"><strong>Cuando los supuestos matemáticos son erróneos, se generan situaciones desastrosas</strong>”</mark>, dijo Ferreira.</p>



<p>Para resaltar este problema, los expertos mostraron datos de la organización PretaLab, que indican que en Brasil, 65 por ciento de las mujeres están fuera del área de TI y este número se agrava si son madres; en el 67.4 por ciento de los casos, personas que viven en barrios periféricos y vulnerables constituyen como máximo el 10 por ciento de las personas en los equipos de tecnología de las empresas; el 95.9 por ciento de ellos no incluye a ningún indígena y la falta de personas negras oscila entre 38 y 68 por ciento en esta área.</p>



<h2 class="wp-block-heading"><strong>Empresas diversas generan soluciones más asertivas y rentables</strong></h2>



<p>“Al considerar estos aspectos, entendemos que la tecnología es un espacio de poder, y por eso debemos ocuparlo”, indicó Thamires Orefice.</p>



<p>La pareja también afirmó, según un estudio de la consultora McKinsey titulado <em>La diversidad como palanca de desempeño</em>, que una empresa diversa puede obtener beneficios reales. El análisis realizado con más de mil empresas en 12 países arrojó que <strong>la diversidad de género en los puestos ejecutivos</strong> <strong>puede incrementar las ganancias en un 21 por ciento</strong> en comparación con aquellas que no trabajan en este tema.</p>



<p>En los casos de mayor diversidad étnica y cultural, este número se eleva al 31 por ciento.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">198452</post-id>	</item>
		<item>
		<title>Reconhecimento facial endossa preconceito algorítmico, afirmam especialistas</title>
		<link>https://dplnews.com/reconhecimento-facial-endossa-preconceito-algoritmico-afirmam-especialistas/</link>
		
		<dc:creator><![CDATA[⁨Mayara Figueiredo]]></dc:creator>
		<pubDate>Fri, 30 Jun 2023 17:26:17 +0000</pubDate>
				<category><![CDATA[BRASIL]]></category>
		<category><![CDATA[Tecnologia]]></category>
		<category><![CDATA[Brasil]]></category>
		<category><![CDATA[FebrabanTech]]></category>
		<category><![CDATA[Racismo]]></category>
		<category><![CDATA[racismo algorítmico]]></category>
		<category><![CDATA[reconhecimento facial]]></category>
		<category><![CDATA[relevante Brasil]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=198407</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1280" height="576" src="https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews Aubio Ferreira e Thamires Educafro mc30623" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623.jpeg 1280w, https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623-300x135.jpeg 300w, https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623-1024x461.jpeg 1024w, https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623-768x346.jpeg 768w" sizes="auto, (max-width: 1280px) 100vw, 1280px" title="Reconhecimento facial endossa preconceito algorítmico, afirmam especialistas 12"></div>São Paulo.- No Brasil, 90% das pessoas presas por meio de sistemas de reconhecimento facial são negras. Isso se dá por conta de dados enviesados e softwares com uma margem de falha de 10%, um número inconcebível para muitos desenvolvedores. Esses dados foram divulgados nesta quinta-feira, 29, na FebrabanTech 2023, por especialistas do direito digital [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1280" height="576" src="https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623.jpeg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews Aubio Ferreira e Thamires Educafro mc30623" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623.jpeg 1280w, https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623-300x135.jpeg 300w, https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623-1024x461.jpeg 1024w, https://dplnews.com/wp-content/uploads/2023/06/dplnews_Aubio-Ferreira-e-Thamires_Educafro_mc30623-768x346.jpeg 768w" sizes="auto, (max-width: 1280px) 100vw, 1280px" title="Reconhecimento facial endossa preconceito algorítmico, afirmam especialistas 14"></div>
<p><em>São Paulo.-</em> No Brasil, 90% das pessoas presas por meio de sistemas de reconhecimento facial são negras. Isso se dá por conta de dados enviesados e softwares com uma margem de falha de 10%, um número inconcebível para muitos desenvolvedores. Esses dados foram divulgados nesta quinta-feira, 29, na FebrabanTech 2023, por especialistas do direito digital e da área de tecnologia do projeto Educafro, voltado para inserção e permanência de pessoas pretas em diferentes espaços, sobretudo universidades.</p>



<p>Um exemplo dessa problemática, apresentado no workshop <strong><em>“racismo algorítmico: do conceito à prática na sociedade cotidiana”</em></strong>, é o fatídico caso da pesquisadora do MIT (Massachusetts Institute of Technology), Joy Buolamwini, que deu início a um projeto chamado <em>Aspire Mirror</em>, uma ferramenta desenvolvida para projetar máscaras digitais no reflexo de quem a utilizasse.</p>



<p>Ao usar um software genérico de reconhecimento facial, a cientista, que é negra, descobriu que seu rosto não era detectado. Após descartar os problemas tecnológicos, fez um teste colocando uma máscara branca sobre seu rosto e foi prontamente reconhecida. A experiência é citada no documentário <strong><em>&#8220;Coded Bias&#8221;.</em></strong></p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><img loading="lazy" decoding="async" width="900" height="506" src="https://dplnews.com/wp-content/uploads/2023/06/joy-buolamwini-mascara-branca_credito-divulgacao.jpg" alt="joy buolamwini mascara branca credito divulgacao" class="wp-image-198409" title="Reconhecimento facial endossa preconceito algorítmico, afirmam especialistas 13" srcset="https://dplnews.com/wp-content/uploads/2023/06/joy-buolamwini-mascara-branca_credito-divulgacao.jpg 900w, https://dplnews.com/wp-content/uploads/2023/06/joy-buolamwini-mascara-branca_credito-divulgacao-300x169.jpg 300w, https://dplnews.com/wp-content/uploads/2023/06/joy-buolamwini-mascara-branca_credito-divulgacao-768x432.jpg 768w" sizes="auto, (max-width: 900px) 100vw, 900px" /></figure>
</div>


<p>“Toda essa tecnologia [de biometria e reconhecimento facial] promete segurança e praticidade. Mas para quem?”, questionou Thamires Orefice, consultora jurídica da Educafro, especializada em direito digital. “Não existem dados que comprovem essa segurança e mal temos tempo de aplicar e acompanhar a velocidade de tais tecnologias, por isso é necessário uma melhor regulamentação e revisão”, completa.</p>



<p>Portanto, a especialista esclarece que o posicionamento da Educafro é mesmo o banimento desse sistema ou no mínimo uma revisão atualizada dos dados para aplicá-lo.</p>



<h2 class="wp-block-heading">O problema do viés dos algoritmos</h2>



<p>Como é sabido, a tecnologia de reconhecimento facial é baseada em softwares e algoritmos que fazem o mapeamento de padrões nos rostos dos indivíduos a partir do uso de um banco de dados. E, como esclarece Áubio Ferreira, engenheiro da computação e pesquisador da Educafro Tech, as máquinas não são produtos cognitivos, elas são abastecidas com uma base de quem as treinam e desenvolvem esses algoritmos: em suma, um grupo homogêneo, formado por homens brancos e cisgêneros.</p>



<p>“A nível de TI o que precisa ser feito é uma refinação dos dados. 10% de erro em reconhecimento facial não é aceitável; 1% em área de pesquisa, já é um número gritante. Quando as premissas matemáticas são equivocadas isso resulta em situações desastrosas”, diz Ferreira.</p>



<p>Para evidenciar essa problemática, os especialistas mostraram dados da organização PretaLab, que apontam que no Brasil, 65% das mulheres estão fora da área de TI e esse número piora se forem mães; em 67,4% dos casos, as pessoas que moram em bairros periféricos e vulneráveis representam um máximo de 10% das pessoas nas equipes de tecnologia das empresas; 95,9% delas não integra nenhuma pessoa indígena e a falta de pessoas negras vai de 38 a 68% nessa área.</p>



<h2 class="wp-block-heading">Empresas diversas geram soluções mais assertivas e lucrativas</h2>



<p>“Ao considerar esses aspectos, entendemos que a tecnologia é um espaço de poder, e por isso devemos ocupá-lo”, explica Thamires Orefice.</p>



<p>A dupla também afirmou, segundo estudo da consultoria McKinsey, intitulado “A diversidade como alavanca de desempenho” que uma empresa diversa pode obter benefícios reais. A análise feita com mais de mil empresas em 12 países, mostrou que a diversidade de gênero em cargos executivos <strong>pode aumentar em 21% os lucros</strong> em comparação com aquelas que não trabalham essa questão.</p>



<p>Já nos casos de maior diversidade étnica e cultura, esse número se eleva para 31%.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">198407</post-id>	</item>
	</channel>
</rss>
