<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>ceguera &#8211; DPL News</title>
	<atom:link href="https://dplnews.com/tag/ceguera/feed/" rel="self" type="application/rss+xml" />
	<link>https://dplnews.com</link>
	<description>DPL News</description>
	<lastBuildDate>Fri, 01 Aug 2025 04:28:42 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://dplnews.com/wp-content/uploads/2020/03/logo-favicon-64x64-dplnews.png</url>
	<title>ceguera &#8211; DPL News</title>
	<link>https://dplnews.com</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">201771233</site>	<item>
		<title>Neuralink se suma a proyecto que creará un ojo biónico para pacientes ciegos</title>
		<link>https://dplnews.com/neuralink-proyecto-ojo-bionico-para-pacientes-ciegos/</link>
		
		<dc:creator><![CDATA[Sharon Durán]]></dc:creator>
		<pubDate>Fri, 01 Aug 2025 04:28:38 +0000</pubDate>
				<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[DPL Tech]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[ceguera]]></category>
		<category><![CDATA[Neuralink]]></category>
		<category><![CDATA[ojo biónico]]></category>
		<category><![CDATA[relevante tech]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=283536</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="2560" height="1707" src="https://dplnews.com/wp-content/uploads/2025/07/dplnews_ojo-humano_mc310725-scaled.webp" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews ojo humano mc310725 scaled" decoding="async" fetchpriority="high" srcset="https://dplnews.com/wp-content/uploads/2025/07/dplnews_ojo-humano_mc310725-scaled.webp 2560w, https://dplnews.com/wp-content/uploads/2025/07/dplnews_ojo-humano_mc310725-300x200.webp 300w, https://dplnews.com/wp-content/uploads/2025/07/dplnews_ojo-humano_mc310725-1024x683.webp 1024w, https://dplnews.com/wp-content/uploads/2025/07/dplnews_ojo-humano_mc310725-768x512.webp 768w, https://dplnews.com/wp-content/uploads/2025/07/dplnews_ojo-humano_mc310725-1536x1024.webp 1536w, https://dplnews.com/wp-content/uploads/2025/07/dplnews_ojo-humano_mc310725-2048x1366.webp 2048w" sizes="(max-width: 2560px) 100vw, 2560px" title="Neuralink se suma a proyecto que creará un ojo biónico para pacientes ciegos 1"></div>El proyecto, liderado por universidades de Estados Unidos y España, combina implantes neuronales e IA para generar imágenes directamente en la corteza visual.]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="2560" height="1707" src="https://dplnews.com/wp-content/uploads/2025/07/dplnews_ojo-humano_mc310725-scaled.webp" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews ojo humano mc310725 scaled" decoding="async" srcset="https://dplnews.com/wp-content/uploads/2025/07/dplnews_ojo-humano_mc310725-scaled.webp 2560w, https://dplnews.com/wp-content/uploads/2025/07/dplnews_ojo-humano_mc310725-300x200.webp 300w, https://dplnews.com/wp-content/uploads/2025/07/dplnews_ojo-humano_mc310725-1024x683.webp 1024w, https://dplnews.com/wp-content/uploads/2025/07/dplnews_ojo-humano_mc310725-768x512.webp 768w, https://dplnews.com/wp-content/uploads/2025/07/dplnews_ojo-humano_mc310725-1536x1024.webp 1536w, https://dplnews.com/wp-content/uploads/2025/07/dplnews_ojo-humano_mc310725-2048x1366.webp 2048w" sizes="(max-width: 2560px) 100vw, 2560px" title="Neuralink se suma a proyecto que creará un ojo biónico para pacientes ciegos 2"></div>
<p><a href="https://dplnews.com/tag/elon-musk/">Elon Musk</a>, a través de su empresa de chips cerebrales <a href="https://dplnews.com/tag/neuralink/">Neuralink</a>, se sumó al proyecto de investigación de la Universidad de Santa Bárbara, la Universidad de California y la Universidad Miguel Hernández de Elche (Alicante), que busca realizar un ensayo clínico para estudiar la viabilidad de prótesis visuales que le permitan ver a personas ciegas.</p>



<p>El proyecto, <a href="https://clinicaltrials.gov/study/NCT06117332?intr=neuralink&amp;rank=2" rel="nofollow noopener" target="_blank">publicado</a> por Clinical Trials<em> </em>de Estados Unidos bajo el registro NCT06117332, busca crear un<strong> ojo biónico inteligente, </strong>basado en la comprensión de escenas impulsadas por Inteligencia Artificial (<a href="https://dplnews.com/tag/inteligencia-artificial/">IA</a>) para “aumentar la escena visual”.</p>



<p>Para ello, pretende desarrollar una <strong>prótesis visual cortical</strong> que permitiría restaurar parcialmente la visión a pacientes con ceguera profunda.</p>



<p>Musk ya ha venido trabajando en el desarrollo de un proyecto de este tipo con Blindsight, un chip que se implanta directamente a la corteza visual del cerebro, sin necesidad de un globo ocular o nervio óptico funcional. Sin embargo, este chip sólo ha sido <a href="https://dplnews.com/elon-musk-sera-investigado-por-muerte-de-monos-en-neuralink/">probado en monos</a> y hasta ahora en ninguna persona.</p>



<p>“Un importante desafío pendiente es traducir la estimulación con electrodos a un código que el cerebro pueda comprender”, detalla el proyecto de las universidades. Esto, teniendo en cuenta que las tecnologías existentes para tratar a personas invidentes dependen de algún nivel de funcionalidad ocular o del nervio óptico. Por el contrario, con el implante que propone esta investigación, los pacientes lograrán <strong>ver directamente desde el cerebro</strong>, donde se genera la imagen.</p>



<p class="has-background" style="background-color:#fff6f9"><strong>Lee también: </strong><a href="https://dplnews.com/chips-cerebrales-dilema-ia-en-el-pensamiento-humano/"><strong>Chips cerebrales, el dilema de la Inteligencia Artificial en el pensamiento humano</strong></a></p>



<p>Además, el sistema estaría “adaptado a tareas específicas del mundo real, que se sabe que disminuyen la calidad de vida de las personas ciegas (por ejemplo, reconocimiento facial, navegación al aire libre, cuidado personal, etcétera)”, explica el artículo.</p>



<p>Por el momento, los investigadores trabajan en ensayos clínicos que permitan producir percepciones visuales en pacientes de <strong>Cortivis </strong>y <strong>Neuralink</strong>. Una vez estén disponibles, se iniciará una segunda fase del proyecto que consiste en comenzar una estimulación directamente con los electrodos (usando trenes de pulsos estándar y seguros), o pidiendo a los pacientes que vean una pantalla y usen protocolos de estimulación estándar para convertir la imagen de la pantalla en trenes de pulsos.</p>



<p>Los datos de este ensayo serán recopilados en un informe hecho por los psicofísicos y los modelos computacionales. Luego, los investigadores probarán la capacidad de diferentes métodos de codificación de estímulos para respaldar tareas perceptivas y conductuales simples como el reconocimiento de objetos y la navegación <em>web</em>.</p>



<p>El desempeño de los pacientes con prótesis se comparará tanto con los métodos de codificación de estímulos como con el desempeño en sujetos de control con visión normal que ven estímulos manipulados, para que coincidan con la experiencia perceptiva esperada de los pacientes con prótesis.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">283536</post-id>	</item>
		<item>
		<title>El proyecto de Google que permitió a un ciego correr sin necesidad de ayuda</title>
		<link>https://dplnews.com/el-proyecto-de-google-que-permitio-a-un-ciego-correr-sin-necesidad-de-ayuda/</link>
		
		<dc:creator><![CDATA[DPL News]]></dc:creator>
		<pubDate>Tue, 24 Nov 2020 13:24:12 +0000</pubDate>
				<category><![CDATA[Salud]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[ceguera]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[Project Guideline]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=77331</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="800" src="https://dplnews.com/wp-content/uploads/2020/11/dplnews_pojectguideline_vr241120.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews pojectguideline vr241120" decoding="async" srcset="https://dplnews.com/wp-content/uploads/2020/11/dplnews_pojectguideline_vr241120.jpg 1200w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_pojectguideline_vr241120-300x200.jpg 300w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_pojectguideline_vr241120-1024x683.jpg 1024w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_pojectguideline_vr241120-768x512.jpg 768w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_pojectguideline_vr241120-696x464.jpg 696w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_pojectguideline_vr241120-1068x712.jpg 1068w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_pojectguideline_vr241120-630x420.jpg 630w" sizes="(max-width: 1200px) 100vw, 1200px" title="El proyecto de Google que permitió a un ciego correr sin necesidad de ayuda 3"></div>Fayerwwayer-Kiko Perozo Thomas Panek perdió la visión desde su juventud, debido a una condición genética. Corredor aficionado, siguió ejercitándose con auxiliares y, luego, con un perro guía. Pero quería volver a hacerlo solo. Como cuando era niño. Tras plantear el caso de su enfermedad en un hackatón de Google, consiguió apoyo. Un grupo de investigadores [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="800" src="https://dplnews.com/wp-content/uploads/2020/11/dplnews_pojectguideline_vr241120.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews pojectguideline vr241120" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2020/11/dplnews_pojectguideline_vr241120.jpg 1200w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_pojectguideline_vr241120-300x200.jpg 300w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_pojectguideline_vr241120-1024x683.jpg 1024w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_pojectguideline_vr241120-768x512.jpg 768w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_pojectguideline_vr241120-696x464.jpg 696w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_pojectguideline_vr241120-1068x712.jpg 1068w, https://dplnews.com/wp-content/uploads/2020/11/dplnews_pojectguideline_vr241120-630x420.jpg 630w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="El proyecto de Google que permitió a un ciego correr sin necesidad de ayuda 4"></div>
<p><a href="https://www.fayerwayer.com/2020/11/google-corredor-ciego-correr/" rel="nofollow noopener" target="_blank">Fayerwwayer-Kiko Perozo</a></p>



<p>Thomas Panek perdió la visión desde su juventud, debido a una condición genética. Corredor aficionado, siguió ejercitándose con auxiliares y, luego, con un perro guía. Pero quería volver a hacerlo solo. Como cuando era niño.</p>



<p>Tras plantear el caso de su enfermedad en un hackatón de Google, consiguió apoyo. Un grupo de investigadores de la compañía desarrolló un sistema para que Panek pudiera correr sin necesidad de ayuda.</p>



<h3 class="wp-block-heading"><strong>El Project Guideline de Google</strong></h3>



<p>¿Cómo lo hicieron?</p>



<p>Gracias al Project Guideline (Línea de Guía), que consistía en un sistema de sonido que trabajaba con un teléfono y una línea pegada al suelo.</p>



<p>Todo se hizo en un espacio cerrado.</p>



<div class="wp-block-image"><figure class="aligncenter"><a class="" href="https://www.fayerwayer.com/2020/11/google-corredor-ciego-correr/" target="_blank" rel="noreferrer noopener nofollow"><img decoding="async" src="https://media.metrolatam.com/2020/11/24/thomaspanek2-d0f189cd5b6cbb197490563f182f09cc.jpg" alt="Thomas Panek, la persona ciega que pudo correr solo gracias a Google." class="wp-image-790126" title="Thomas Panek, la persona ciega que pudo correr solo gracias a Google."/></a></figure></div>



<p>El teléfono reconocía la línea y le proporcionaba a Thomas señales de audio que dependen de su posición. Si la persona se desviaba a la izquierda de la línea, recibía la señal por el oído izquierdo. Si era hacia la derecha, lo recibía en el derecho.</p>



<p>De esa forma, Thomas podía correr con independencia, sin tener que depender de otra persona o de su perro guía.</p>



<p>Pero Google y Thomas fueron más allá.</p>



<h3 class="wp-block-heading"><strong>La hora de correr libremente al aire libre</strong></h3>



<p>“Nuestro próximo paso”, explica el corredor, “era saber si la tecnología me podría ayudar en el lugar donde más amo correr: el parque”.</p>



<p>“La paz y la serenidad del parque”, recalcó. “Estuve esperando durante 25 años para correr solo, sin ayuda, en los exteriores”.</p>



<p>Google ayudó, habilitando el parque con la línea para el sistema sensorial. Y Thomas pudo cumplir su sueño.</p>



<p>Thomas se prepara para correr en la Carrera de Nueva York Thanks 5K, utilizando el mismo sistema. Esta vez la línea será pintada en el Central Park de Nueva York.</p>



<p>Es una muestra más de que, juntos, no existen más límites que los que establezca la creatividad.</p>



<p>Thomas Panek, CEO de&nbsp;<a href="https://www.guidingeyes.org/?utm_attribute=DMPaidSearchGoogle&amp;utm_term=guiding%20eyes%20for%20the%20blind&amp;gclid=CjwKCAiAnIT9BRAmEiwANaoE1adgYCY4sMFvdSyXJLjKOo6R2NNMQtPAKKiiOV-BFa74nM5lX4dgZhoCjzcQAvD_BwE" target="_blank" rel="noreferrer noopener nofollow"><strong>Ojos Guías para los Ciegos</strong></a>, contó su historia en el blog de Google, al que puedes acceder en&nbsp;<a href="https://blog.google/outreach-initiatives/accessibility/project-guideline/" target="_blank" rel="noreferrer noopener nofollow"><strong>este link.&nbsp;</strong></a></p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">77331</post-id>	</item>
		<item>
		<title>Aplicaciones que subtitulan el día a día y describen la vida en tiempo real</title>
		<link>https://dplnews.com/aplicaciones-que-subtitulan-el-dia-a-dia-y-describen-la-vida-en-tiempo-real/</link>
		
		<dc:creator><![CDATA[DPL News]]></dc:creator>
		<pubDate>Tue, 17 Dec 2019 13:43:07 +0000</pubDate>
				<category><![CDATA[Apps]]></category>
		<category><![CDATA[Inteligencia Artificial]]></category>
		<category><![CDATA[Salud]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[aplicaciones móviles]]></category>
		<category><![CDATA[Aprendizaje automático]]></category>
		<category><![CDATA[ceguera]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[Rusia]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=38458</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="675" src="https://dplnews.com/wp-content/uploads/2019/12/dplnews_livetranscribe_google_vr171219.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews livetranscribe google vr171219" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/12/dplnews_livetranscribe_google_vr171219.jpg 1200w, https://dplnews.com/wp-content/uploads/2019/12/dplnews_livetranscribe_google_vr171219-300x169.jpg 300w, https://dplnews.com/wp-content/uploads/2019/12/dplnews_livetranscribe_google_vr171219-1024x576.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/12/dplnews_livetranscribe_google_vr171219-768x432.jpg 768w, https://dplnews.com/wp-content/uploads/2019/12/dplnews_livetranscribe_google_vr171219-696x392.jpg 696w, https://dplnews.com/wp-content/uploads/2019/12/dplnews_livetranscribe_google_vr171219-1068x601.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/12/dplnews_livetranscribe_google_vr171219-747x420.jpg 747w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="Aplicaciones que subtitulan el día a día y describen la vida en tiempo real 5"></div>El País-Agathe Cortes Dimitri Kanevsky, científico ruso de&#160;Google&#160;que padece sordera desde su infancia, tenía un sueño desde hace más de 30 años: desarrollar un sistema de reconocimiento de discursos para ayudar a la gente que no puede oír. En definitiva, ofrecer una accesibilidad universal a la información. El experto ha cumplido su sueño&#160;y&#160;explora cómo las [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1200" height="675" src="https://dplnews.com/wp-content/uploads/2019/12/dplnews_livetranscribe_google_vr171219.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews livetranscribe google vr171219" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/12/dplnews_livetranscribe_google_vr171219.jpg 1200w, https://dplnews.com/wp-content/uploads/2019/12/dplnews_livetranscribe_google_vr171219-300x169.jpg 300w, https://dplnews.com/wp-content/uploads/2019/12/dplnews_livetranscribe_google_vr171219-1024x576.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/12/dplnews_livetranscribe_google_vr171219-768x432.jpg 768w, https://dplnews.com/wp-content/uploads/2019/12/dplnews_livetranscribe_google_vr171219-696x392.jpg 696w, https://dplnews.com/wp-content/uploads/2019/12/dplnews_livetranscribe_google_vr171219-1068x601.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/12/dplnews_livetranscribe_google_vr171219-747x420.jpg 747w" sizes="auto, (max-width: 1200px) 100vw, 1200px" title="Aplicaciones que subtitulan el día a día y describen la vida en tiempo real 6"></div>
<p><a href="https://elpais.com/tecnologia/2019/12/12/actualidad/1576152985_166944.html" rel="nofollow noopener" target="_blank">El País-Agathe Cortes</a></p>



<p>Dimitri Kanevsky, científico ruso de&nbsp;<a href="https://elpais.com/tag/google/a" rel="nofollow noopener" target="_blank">Google</a>&nbsp;que padece sordera desde su infancia, tenía un sueño desde hace más de 30 años: desarrollar un sistema de reconocimiento de discursos para ayudar a la gente que no puede oír. En definitiva, ofrecer una accesibilidad universal a la información. El experto ha cumplido su sueño&nbsp;y&nbsp;explora cómo las interfaces táctiles y visuales se pueden utilizar para transmitir representaciones alternativas de sonido gracias a la&nbsp;<a href="https://elpais.com/tag/inteligencia_artificial/a" rel="nofollow noopener" target="_blank">inteligencia artificial</a>&nbsp;(IA) y al&nbsp;<a href="https://www.google.com/search?q=aprendizaje+autom%C3%A1tico+el+pais&amp;rlz=1C1GCEV_enES869ES869&amp;oq=aprendizaje+autom%C3%A1tico+el+pais&amp;aqs=chrome..69i57j69i60.1855j0j4&amp;sourceid=chrome&amp;ie=UTF-8" rel="nofollow noopener" target="_blank">aprendizaje automático</a>&nbsp;(<em>machine learning</em>).&nbsp;</p>



<p>La&nbsp;aplicación&nbsp;<a href="https://www.android.com/accessibility/live-transcribe/" rel="nofollow noopener" target="_blank">Live Transcribe</a>&nbsp;que le acompaña en su día a día, disponible en todos los&nbsp;<em>smartphones</em>&nbsp;y en 70 idiomas, ofrece subtítulos en tiempo real de las conversaciones y ayuda a mejorar la pronunciación al ver un error de transcripción en la pantalla. El pasado jueves, en la planta 22 de la Torre Picasso de Madrid, Google ha presentado varias aplicaciones disponibles o en&nbsp; investigación para móviles que mejoran la vida de los colectivos con discapacidad que suponen, según la&nbsp;<a href="https://www.who.int/es" rel="nofollow noopener" target="_blank">Organización Mundial de la Salud</a>, el 15% de la población.</p>



<p>Kanevsky está grabando unas 15.000 frases y durante 25 horas para formar el programa</p>



<p>La compleja trayectoria del científico fue lo que inspiró la creación de Live Transcribe. Su pasado no fue fácil y él lo asume: “He sido muy discriminado. Imagínese en Rusia hace 30 años”. El investigador recuerda un cartel en la puerta de una universidad de Moscú: “Acceso prohibido a las personas invidentes y sordas”. Pese a ello, no renunció a estudiar e integró una clase de oyentes con la ayuda de sus padres y traductores y consiguió matricularse. Durante su carrera, recurrió por ejemplo a&nbsp;<a href="https://deafaccess.com/services/cart-services/" rel="nofollow noopener" target="_blank">los servicios de CART (Transcripción asistida por computadora en tiempo real)</a>&nbsp;que costaban 150 dólares por hora, pero todas las empresas no se lo podían permitir. Fue como un clic.</p>



<p>“Al ver que la comunicación con los demás seguía siendo un obstáculo y, además, costoso, quise utilizar la tecnología para mejorar la integración de mi colectivo al ámbito laboral y escolar”, explica. En el mundo, hay hasta 360 millones personas que padecen sordera o pérdida auditiva. La OMS prevé que en 2055 sean 900 millones. Live Transcribe necesita conexión a la red y entrenamiento, pero es capaz de traducir perfecta y directamente un discurso, una vez se acostumbre al habla del interlocutor.</p>



<p>Frente a los posibles problemas de conexión, los investigadores desarrollan algoritmos para dos nuevas aplicaciones: Euphonia y Parrotron, cuyas características&nbsp;ayudan a la gente con discapacidad muscular o incapaz de oír su voz (y por lo tanto con dificultades para crear sonido) a hacerse entender. Kanevsky ha grabado unas 15.000 frases que suman 25 horas de diálogo para formar el programa de Euphonia. Todas estas técnicas, aunque necesiten ensayarse, le permiten hablar con gente, dar conferencias, pedir al altavoz inteligente de Google que apague la luz de casa y, sobre todo, comunicarse con sus nietas sin necesitar la traducción de su esposa.</p>



<p>El científico asegura que no se perderán puestos de traductores, ya que es imprescindible para algunas personas combinar los dos métodos de transcripción. “A algunos les cuesta hablar y solo recurren al idioma de los signos. Desde Google, lo apoyamos mucho. Eso sí, las cosas tienen que cambiar y el traductor deberá adaptarse a las innovaciones tecnológicas”, asevera.&nbsp;</p>



<h3 class="wp-block-heading">Ver el mundo sin retinas</h3>



<p>El medallista reconoce que depende de su móvil.&nbsp; “Me ha facilitado la vida, me lee todo, me permite ver el mundo”</p>



<p><a href="https://www.enhamed.com/inicio/" rel="nofollow noopener" target="_blank">Enhamed Enhamed Mohamed Yahdih</a> (Canarias, 32 años), es invidente y nadador paralímpico español. Sentado en primera fila, se levanta y toma el móvil que le ofrece Kanevsky para la demostración de una aplicación de Google lanzada en marzo: Lookout. “Cuatro flores a la una”, “una camisa de cuadros y unos vaqueros a las doce”, “un calcetín a las doce”, le avisa una voz de mujer mientras se desplaza por la sala. Enhamed repite que esta tecnología le ha cambiado la vida. “Basta con poner el móvil a la altura de mi cara y me va contando todo lo que veo, las puertas de embarque, el menú de un restaurante, si me he dejado la luz encendida de casa, etcétera”, detalla el deportista.<a rel="noreferrer noopener nofollow" href="https://hp.teads.com/?utm_source=inread&amp;utm_medium=credits&amp;utm_campaign=invented%20by%20teads" target="_blank"></a></p>



<p>El medallista reconoce que depende de la tecnología, que si pierde el iPhone no tardará ni medio segundo en comprarse otro. “Me ha facilitado el día a día, me lee todo, me permite ver el mundo”, destaca.&nbsp;<a href="https://elpais.com/elpais/2019/10/08/planeta_futuro/1570535352_539415.html" rel="nofollow noopener" target="_blank">Un tercio de la población sufre discapacidad visual</a>, según el último informe de&nbsp;la OMS. Frente a ello, Lookout puede ser una solución para mejorar su integración y comunicación, según confirman los ponentes. Además, la&nbsp;<em>app</em>&nbsp;se adapta al entorno y a las preferencias del usuario.</p>



<p>En la misma línea, Kanevsky presenta Live Caption, una plataforma que ofrece una descripción de las imágenes. “Es un señor sentado en el sofá tocando la guitarra”, por ejemplo. El nadador explica que muchas veces se sentía perdido en los grupos de WhatsApp al no poder ver las imágenes, ni los GIF. Ahora, gracias a todos estos sistemas, sabe de qué se habla, se ríe de las mismas bromas, puede reconocer billetes para que no le timen y vivir de manera independiente. “Antes tenía muchos problemas de comunicación, no podía leer la prensa, mis correos y mensajes, pero ahora, el poder leer imágenes a diario es un cambio increíble. Estas innovaciones no son solo útiles para nosotros, la accesibilidad mejora la vida de todos”, concluye.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">38458</post-id>	</item>
		<item>
		<title>Memes inclusivos: esta tecnología permite a las personas ciegas traducir memes en Internet</title>
		<link>https://dplnews.com/memes-inclusivos-esta-tecnologia-permite-a-las-personas-ciegas-traducir-memes-en-internet/</link>
		
		<dc:creator><![CDATA[Valeria Romero]]></dc:creator>
		<pubDate>Fri, 29 Nov 2019 05:00:43 +0000</pubDate>
				<category><![CDATA[Cultura digital]]></category>
		<category><![CDATA[DPL NEWS]]></category>
		<category><![CDATA[ceguera]]></category>
		<category><![CDATA[discapacidad visual]]></category>
		<category><![CDATA[memes]]></category>
		<category><![CDATA[personas ciegas]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=36579</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="958" height="596" src="https://dplnews.com/wp-content/uploads/2019/11/dplnews_memegatomesa_mc281119.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews memegatomesa mc281119" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/11/dplnews_memegatomesa_mc281119.jpg 958w, https://dplnews.com/wp-content/uploads/2019/11/dplnews_memegatomesa_mc281119-300x187.jpg 300w, https://dplnews.com/wp-content/uploads/2019/11/dplnews_memegatomesa_mc281119-768x478.jpg 768w, https://dplnews.com/wp-content/uploads/2019/11/dplnews_memegatomesa_mc281119-356x220.jpg 356w, https://dplnews.com/wp-content/uploads/2019/11/dplnews_memegatomesa_mc281119-696x433.jpg 696w, https://dplnews.com/wp-content/uploads/2019/11/dplnews_memegatomesa_mc281119-675x420.jpg 675w" sizes="auto, (max-width: 958px) 100vw, 958px" title="Memes inclusivos: esta tecnología permite a las personas ciegas traducir memes en Internet 7"></div>Los memes forman parte de nuestra vida digital, así como de la forma en que nos relacionamos con los demás en las plataformas de redes sociales. No obstante, cuando eres una persona con discapacidad visual, no es tan fácil acceder a estos contenidos. El objetivo de la accesibilidad en Internet es que todas las personas [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="958" height="596" src="https://dplnews.com/wp-content/uploads/2019/11/dplnews_memegatomesa_mc281119.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews memegatomesa mc281119" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/11/dplnews_memegatomesa_mc281119.jpg 958w, https://dplnews.com/wp-content/uploads/2019/11/dplnews_memegatomesa_mc281119-300x187.jpg 300w, https://dplnews.com/wp-content/uploads/2019/11/dplnews_memegatomesa_mc281119-768x478.jpg 768w, https://dplnews.com/wp-content/uploads/2019/11/dplnews_memegatomesa_mc281119-356x220.jpg 356w, https://dplnews.com/wp-content/uploads/2019/11/dplnews_memegatomesa_mc281119-696x433.jpg 696w, https://dplnews.com/wp-content/uploads/2019/11/dplnews_memegatomesa_mc281119-675x420.jpg 675w" sizes="auto, (max-width: 958px) 100vw, 958px" title="Memes inclusivos: esta tecnología permite a las personas ciegas traducir memes en Internet 9"></div>
<p>Los memes forman parte de nuestra vida digital, así como de la forma en que nos relacionamos con los demás en las plataformas de redes sociales. No obstante, cuando eres una persona con discapacidad visual, no es tan fácil acceder a estos contenidos.</p>



<p>El objetivo de la accesibilidad en Internet es que todas las personas sean incluidas en el ecosistema digital, pero a menudo los memes no tienen un texto alternativo que describa lo que representa la imagen en cuestión.</p>



<p>Para contrarrestar este problema de inclusión, los investigadores de la <strong>Universidad de Carnegie Mellon</strong> desarrollaron una tecnología que <strong>identifica automáticamente los memes para crear una plantilla</strong> en donde se incluye un texto alternativo descriptivo de la imagen.</p>



<div class="wp-block-image"><figure class="alignright"><img decoding="async" src="https://lh4.googleusercontent.com/si9BiPcMa5cx09r4JLH4QwE0x8gagpn_vUlsBXYOVthpGUvtDashnVHT13UPFAtjjip_mB2LnO0VThqy6_-9I7hfKO2ZtRM2gFL80roxygGXVRTVxCzZlSaALZuRZcQXV5XyB9bq" alt="si9BiPcMa5cx09r4JLH4QwE0x8gagpn vUlsBXYOVthpGUvtDashnVHT13UPFAtjjip mB2LnO0VThqy6" title="Memes inclusivos: esta tecnología permite a las personas ciegas traducir memes en Internet 8"></figure></div>



<p>Esta plantilla permite que el <em>software</em> de lector de pantalla, que normalmente utilizan las personas ciegas en sus teléfonos inteligentes, pueda asistir al usuario para describir la imagen del meme.</p>



<p>Pero los investigadores se han encontrado con el problema de escribir lo que el meme quiere transmitir. <strong>Muchas veces “las imágenes son más matizadas”</strong> y requieren de más contexto, por lo que el texto descriptivo puede <strong>“matar el chiste”.</strong></p>



<p>De acuerdo con los investigadores, <strong>implementar su tecnología será un desafío;</strong> aun si se integrara en un generador de memes, el texto alternativo no se copiará cuando se comparta en redes sociales, ya que las plataformas actuales no tienen esa función.</p>



<p>Twitter permite agregar texto alternativo a las imágenes, pero esa característica no siempre es fácil de encontrar. De los 9 millones de tuits que los investigadores examinaron, sólo un millón incluía imágenes, y de ellas,<strong> sólo 0.1 por ciento incluía texto alternativo.</strong></p>



<p>Para complementar su trabajo, los investigadores también trabajan en otros proyectos alternativos como una extensión para navegador en Twitter, que incluye textos alternativos en imágenes. En este proyecto pretenden incluir su tecnología para traducir memes.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">36579</post-id>	</item>
		<item>
		<title>La luz azul de los smartphones puede provocar ceguera, según este estudio</title>
		<link>https://dplnews.com/la-luz-azul-de-los-smartphones-puede-provocar-ceguera-segun-este-estudio/</link>
		
		<dc:creator><![CDATA[DPL News]]></dc:creator>
		<pubDate>Thu, 18 Jul 2019 12:50:08 +0000</pubDate>
				<category><![CDATA[Cultura digital]]></category>
		<category><![CDATA[Salud]]></category>
		<category><![CDATA[TECNOLOGÍA]]></category>
		<category><![CDATA[ceguera]]></category>
		<category><![CDATA[luz azul]]></category>
		<category><![CDATA[Mundial]]></category>
		<category><![CDATA[salud]]></category>
		<guid isPermaLink="false">https://dplnews.com/?p=20130</guid>

					<description><![CDATA[<div style="margin-bottom:20px;"><img width="1330" height="750" src="https://dplnews.com/wp-content/uploads/2019/07/dplnews_ceguera_celular_vr180719.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews ceguera celular vr180719" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/07/dplnews_ceguera_celular_vr180719.jpg 1330w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_ceguera_celular_vr180719-300x169.jpg 300w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_ceguera_celular_vr180719-768x433.jpg 768w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_ceguera_celular_vr180719-1024x577.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_ceguera_celular_vr180719-696x392.jpg 696w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_ceguera_celular_vr180719-1068x602.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_ceguera_celular_vr180719-745x420.jpg 745w" sizes="auto, (max-width: 1330px) 100vw, 1330px" title="La luz azul de los smartphones puede provocar ceguera, según este estudio 10"></div>TicBeat Un nuevo estudio muestra cómo la luz azul puede causar degeneración macular, una de las principales causas de ceguera. La investigación señala que la luz azul convierte una molécula del ojo en una ‘asesina de células’. Estar ante una pantalla todo el día no es bueno para nosotros, ya lo sabíamos. Puede&#160;causar dolor en [&#8230;]]]></description>
										<content:encoded><![CDATA[<div style="margin-bottom:20px;"><img width="1330" height="750" src="https://dplnews.com/wp-content/uploads/2019/07/dplnews_ceguera_celular_vr180719.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="dplnews ceguera celular vr180719" decoding="async" loading="lazy" srcset="https://dplnews.com/wp-content/uploads/2019/07/dplnews_ceguera_celular_vr180719.jpg 1330w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_ceguera_celular_vr180719-300x169.jpg 300w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_ceguera_celular_vr180719-768x433.jpg 768w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_ceguera_celular_vr180719-1024x577.jpg 1024w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_ceguera_celular_vr180719-696x392.jpg 696w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_ceguera_celular_vr180719-1068x602.jpg 1068w, https://dplnews.com/wp-content/uploads/2019/07/dplnews_ceguera_celular_vr180719-745x420.jpg 745w" sizes="auto, (max-width: 1330px) 100vw, 1330px" title="La luz azul de los smartphones puede provocar ceguera, según este estudio 11"></div>
<p><a rel="noreferrer noopener nofollow" aria-label="TicBeat (opens in a new tab)" href="https://www.ticbeat.com/tecnologias/luz-azul-smartphone-provoca-ceguera/" target="_blank">TicBeat</a></p>



<p>Un nuevo estudio muestra cómo la luz azul puede causar degeneración macular, una de las principales causas de ceguera. La investigación señala que la luz azul convierte una molécula del ojo en una ‘asesina de células’.</p>



<p>Estar ante una pantalla todo el día no es bueno para nosotros, ya lo sabíamos. Puede&nbsp;<strong>causar dolor en los ojos</strong>, a veces llamado&nbsp;<a href="https://www.aoa.org/patients-and-public/caring-for-your-vision/protecting-your-vision/computer-vision-syndrome" target="_blank" rel="noreferrer noopener nofollow">síndrome de visión del ordenador</a>, y la luz es tan brillante que puede parecerse a la luz solar,&nbsp;<strong>interferir en nuestro sistema hormonal</strong>&nbsp;e&nbsp;<a href="https://www.businessinsider.com/blue-light-sleep-affects-body-2016-11" target="_blank" rel="noreferrer noopener nofollow">impedir que nos entre el sueño</a>.</p>



<p>La&nbsp;<strong>luz azul que las tablets, smartphones y portátiles</strong>&nbsp;emiten es tan brillante que podemos ver las pantallas en un día soleado.<strong>&nbsp;No es natural estar mirando a esa intensidad de luz todo el día</strong>, por lo que no es una sorpresa que las investigación esté empezando a descubrir cuán perjudicial es para nosotros.</p>



<p>Según un nuevo estudio,&nbsp;<a href="https://www.nature.com/articles/s41598-018-28254-8" target="_blank" rel="noreferrer noopener nofollow">publicado en la revista&nbsp;<em>Scientific Reports</em></a>, esta luz azul puede incrementar nuestras posibilidades de quedarnos ciegos. Estudios previos han mostrado lo dañina que es la luz azul, pero los investigadores de la&nbsp;<strong>Universidad de&nbsp;</strong><strong>Toledo (Ohio, EEUU) muestran el mecanismo de cómo puede hacer que ciertas moléculas se vuelvan “tóxicas”.</strong></p>



<p>El equipo ha&nbsp; descubierto que la incidencia de la&nbsp;<strong>luz azul sobre las células del ojo transforma moléculas vitales en&nbsp;<em>asesinas de células</em></strong>, las cuales pueden llevar a una degeneración macular relacionada con la edad, una de las mayores causas de ceguera en el mundo.</p>



<h2 class="wp-block-heading">La luz azul provoca degeneración macular</h2>



<p>“Estamos siendo expuestos a luz azul constantemente y&nbsp;<strong>la córnea del ojo y la lente no pueden&nbsp;bloquearla o reflejarla”</strong>, explica Ajith Karunarathne, profesor asistente en el<strong>&nbsp;Departamento de Química y Bioquímica de la Universidad de Toledo</strong>&nbsp;y uno de los autores del estudio.</p>



<p>“No es un secreto que la luz azul daña nuestra visión atacando a la retina del ojo. Nuestros experimentos explican cómo sucede esto y esperamos que lleve a terapias que ralenticen la degeneración macular, como un nuevo tipo de lentilla”.</p>



<p>La degeneración macular ocurre cuando&nbsp;<strong>las células fotorreceptoras de la retina mueren</strong>.&nbsp;<strong>No se regeneran, por lo que “cuando están muertas, están bien muertas”</strong>, asegura&nbsp;Kasun Ratnayake, estudiante de doctorado y otro de los autores.</p>



<p>El&nbsp;<strong>retinaldehído ─una sustancia formada por la oxidación de la vitamina A</strong>─ cambia y&nbsp;<strong>mata a las células fotorreceptoras&nbsp;</strong>disolviendo algunas de sus membranas.</p>



<p>El equipo añadió&nbsp;<strong>moléculas de retinaldehído a otras células del cuerpo con células cancerígenas, células del corazón y neuronas, que&nbsp;también murieron cuando fueron expuestas a la luz azul porque el retinaldehído se volvió tóxico.</strong>&nbsp;Sin el retinaldehído, la luz azul no tendría ningún efecto en otro tipo de células.</p>



<p>“No hay ninguna actividad provocada por la luz verde, amarilla o roja”, explica Karunarathne. “La toxicidad generada en el retinaldehído por la luz azul es universal. Puede matar cualquier tipo de célula”.</p>



<p>Normalmente, hay una molécula en nuestros ojos llamada&nbsp;<strong>alfa tocoferol, que es un antioxidante natural e impide que las células fotorreceptoras mueran.&nbsp;</strong>Pero&nbsp;<strong>cuando envejecemos, o nuestro sistema inmune está bajo, perdemos la capacidad de luchar contra un ataque de retinaldehído tóxico</strong>. Y ahí es cuando el daño sucede.</p>



<p>Karunarathne explica que puedes usar unas&nbsp;<strong>gafas de sol especiales&nbsp;</strong>que&nbsp;<strong>filtran tanto los rayos UVA como la luz azul</strong>&nbsp;para combatir los efectos, pero los&nbsp;<a href="https://www.businessinsider.com/blue-blocking-glasses-science-screens-not-destroying-vision-2017-2" target="_blank" rel="noreferrer noopener nofollow">expertos no están de acuerdo en su&nbsp;grado de efectividad</a>.</p>



<p>También puedes intentar<strong>&nbsp;evitar usar los smartphones y los portátiles</strong>&nbsp;cuando está oscuro, algo que deberías hacer igualmente&nbsp;<a href="https://www.businessinsider.com/dont-check-your-smartphone-before-bed-siegel-2015-7" target="_blank" rel="noreferrer noopener nofollow">si quieres dormir bien por la noche</a>.</p>



<p>“Cada año&nbsp;<strong>más de dos millones de nuevos casos de degeneración macular relacionada con la edad se reportan en EE.UU.</strong>“, explica Karunarathne. “Esperamos encontrar una manera de proteger la vista de los niños que están creciendo un mundo altamente tecnológico”.</p>



<p></p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">20130</post-id>	</item>
	</channel>
</rss>
