中高级阅读:人工智能是进步还是后退?
Inteligencia artificial: ¿progreso o retroceso?CARISSA VÉLIZ
13 JUN 2019 - 18:00EDT
Uno de los mayores riesgos de la inteligencia artificial es que perpetúe (坚持,延续) los errores y prejuicios del pasado, camuflándolos (伪装) bajo un barniz (表面功夫,肤浅知识) de objetividad. Los sistemas de inteligencia artificial se entrenan (训练) a partir de datos que reflejan las decisiones que hemos tomado en el pasado. Cuando la inteligencia artificial de reclutamiento (恢复) de Amazon discriminó a las mujeres, no fue porque los hombres fueran mejores candidatos para los trabajos disponibles (空余的). A través de una base de datos que contenía un historial (详细记录) de contratación, Amazon le enseñó a su sistema que la empresa ha preferido contratar a hombres durante los últimos 10 años. En otras palabras, el algoritmo (算法) perpetuó un prejuicio sexista que estaba grabado en los datos del pasado.
a partir de 依据
tomar las decisiones 做决定
a través de通过
en otras palabras 换句话说
PredPol, el sistema de inteligencia artificial utilizado por la policía en Estados Unidos, tiene problemas similares. En vez de predecir crímenes, que es lo que se supone que tendría que hacer, reproduce hábitos policiacos (警察的). Ahí donde patrulla (巡逻) la policía, encuentran crímenes que dan a procesar al algoritmo, que a su vez recomienda que se continúe patrullando las mismas zonas. Las áreas en donde hay mayor presencia policial, y en consecuencia más arrestos (逮捕), son zonas pobladas por minorías. El resultado es que estas minorías están siendo indirectamente discriminadas.
en vez de 代替;非但不……,反而
a su vez 就他而言,而他那方面
Una de las grandes falacias (谎言,假象) asociadas al optimismo sobre el big data es creer que cuantos más datos tengamos, mejor. Habría que revisitar las palabras del poeta T. S. Eliot, que escribió: “¿Dónde está la sabiduría (智慧) que hemos perdido con el conocimiento? ¿Dónde está el conocimiento que hemos perdido con la información?”. Recolectar más datos no garantiza que sean precisos, ni que estén actualizados y sean relevantes para cumplir nuestros objetivos, ni mucho menos que seamos capaces de poner esos datos al servicio de la justicia, la democracia, la igualdad y el bienestar.
el big data 大数据
sercapaz de 有能力做……
Se dice que el big data va a revolucionar la ciencia. De momento, la inteligencia artificial manifiesta más estupidez (愚笨) que inteligencia. Entre otras muchas limitaciones, la inteligencia artificial solo es capaz de rastrear (追查) correlaciones (相互关系), lo que no necesariamente nos lleva a entender mejor las relaciones de causa y efecto que gobiernan la realidad. El que los algoritmos detecten correlaciones es otro elemento que los hace resistentes a reconocer o impulsar cambios. Dos elementos que han estado correlacionados en el pasado (por ejemplo, ser mujer y tener un trabajo mal pagado) no tienen por qué estar correlacionados en el futuro, pero si nuestros algoritmos nos llevan a actuar como si las correlaciones fueran una verdad objetiva e inmutable (不可改变的), es más probable que la inteligencia artificial no genere predicciones (预言) neutrales, sino profecías (预言) autocumplidas.
de momento 暂时;此刻,现在
las relaciones de causa y efecto 因果关系
como si 好像
También se cree que el big data tiene el potencial de eliminar los sesgos (偏向性;偏见) en las decisiones humanas; de momento, como hemos visto, parece que está incrementando los sesgos y solidificando el statu quo (现状).
sesgos de género 性别偏见
statu quom.现状 ej. mantener el ~ de la frontera 维持边界现状
Un factor que posibilita los cambios sociales es la capacidad humana de olvidar aquello que nos ata (捆绑) al pasado. En su magnífico (优秀的) libro Delete, Viktor Mayer-Schönberger argumenta que tener una memoria perfecta, ya sea como individuos o como sociedad, puede ser un obstáculo para cambiar a mejor. Nuestra memoria biológica es un sistema fantástico de filtración (过滤) y organización de la información: recordamos lo importante, olvidamos lo insignificante, reconstruimos el pasado constantemente a la luz del presente, y le damos diferentes valores a diferentes memorias. La memoria digital lo recuerda todo sin reinterpretarlo ni valorarlo; es la antítesis (对立,反面) de nuestra memoria biológica, forjada a través de milenios de evolución. Las consecuencias de no poder olvidar pueden ser desastrosas.
Si no somos capaces de olvidar los errores que alguien ha cometido (y todos cometemos errores), o por lo menos de tenerlos menos presentes, es difícil que podamos darle una segunda oportunidad. Es verdad que no hay que olvidar las lecciones (教训) del pasado, pero aprender de la historia no es lo mismo que mantener un registro de cada infracción (过失) que cada persona comete. Lo segundo lleva a tener una sociedad implacable (严酷的) , rígida(严格的), que eterniza las injusticias del pasado. Por eso el derecho al olvido es tan importante, y un acierto del Reglamento General de Protección de Datos (RGPD).
Otro factor necesario para posibilitar cambios es la capacidad humana de tener consciencia social. Los seres humanos somos seres sintientes y agentes morales. Como seres sintientes, sabemos lo que es el sufrimiento y el bienestar en nuestra piel, y somos capaces de sentir empatía (共情) con otros que sufren. Como agentes morales, entendemos las consecuencias que nuestras acciones pueden tener en otros. Comprendemos que en ocasiones hay que hacer una excepción a la regla —cuando la regla no abarca todos los casos posibles o cuando una persona merece una segunda oportunidad—. Somos capaces de reflexionar sobre nuestros valores y actuar en consecuencia.
seres sintientes: ser “sintiente” significa ser consciente y sentir emociones como placer y dolor, gracias a las cuales los animales podemos sobrevivir en un mundo lleno de sensaciones. 有情感的生物
en ocasiones 有时
Los algoritmos no son ni seres sintientes ni agentes morales. Son incapaces de sentir dolor, placer, remordimiento (内疚,良心不安) o empatía. Son incapaces de entender las consecuencias de sus acciones —solo los seres que pueden experimentar dolor y placer pueden entender lo que significa infligir (给予) dolor o causar placer. Los algoritmos no tienen valores ni son capaces de hacer una excepción a la regla. No toman en cuenta que en muchas ocasiones las transgresiones (违法) humanas son producto de la injusticia (la falta de oportunidades que lleva al crimen, por ejemplo). No pueden reflexionar sobre el tipo de vida que quieren llevar, o el tipo de sociedad en la que quieren vivir, y actuar en consecuencia. Un coche autónomo no puede decidir andar menos kilómetros para no contaminar. Un robot de guerra no puede convertirse en pacifista después de reflexionar sobre las consecuencias de los conflictos armados. Los algoritmos no pueden tener consciencia social.
no toman en cuenta 不理会,不重视
conflictos armados 武装冲突
Es una trampa (陷阱) creer que la tecnología puede resolver por sí misma problemas que son fundamentalmente éticos y políticos. El reto más importante que tenemos por delante es uno de gobernanza. Si por cada euro que se invierte en inteligencia artificial se invirtiera otro euro en regulación y gobernanza, tendríamos más razones para ser optimistas sobre el futuro digital. Ahora mismo, los incentivos premian (奖励) el uso de la inteligencia artificial para tomar decisiones. Si las instituciones usan algoritmos para tomar decisiones, se ahorran dinero al tener que pagar menos sueldos, pueden defender sus decisiones como si fueran objetivas, y si algo sale mal, pueden culpar al algoritmo. Cuando quienes más arriesgan (los ciudadanos a merced de los algoritmos) son diferentes que quienes más se benefician de ese riesgo (las empresas, los Gobiernos), se crean asimetrías (不对称) de poder. El papel de los reguladores es asegurarse de que los incentivos de las instituciones estén alineados con los intereses de la población. Si la inteligencia artificial daña a los ciudadanos, tiene que haber consecuencias proporcionales (按比例的) para las personas responsables de ese algoritmo.
a merced de 任凭……摆布
A pesar de su complejidad, los algoritmos no son más que herramientas, y los agentes morales somos totalmente responsables de las herramientas que creamos y utilizamos. Si dejamos que los algoritmos decidan basándose en datos del pasado, seremos responsables de repetir nuestros errores, de frenar el progreso social a tal punto que empecemos a retroceder (后退).
a pesar de 尽管
basarse en 以……为基础
ser responsable de 对……负责
注:重点单词和生词均已标注,可记忆。
文章来源:https://elpais.com/elpais/2019/06/13/opinion/1560421249_824783.html
图片来源于网络
感谢好文章
页:
[1]