Want to create interactive content? It’s easy in Genially!
Presentación Tecnología Digital
DAVID A SECAS
Created on September 18, 2024
Start designing with a free template
Discover more than 1500 professional designs like these:
View
Geniaflix Presentation
View
Vintage Mosaic Presentation
View
Shadow Presentation
View
Newspaper Presentation
View
Zen Presentation
View
Audio tutorial
View
Pechakucha Presentation
Transcript
Ética y tecnología: Dilemas del siglo XXI frente a la innovación.
Contextualiza tu tema con un subtítulo
ÍNDICE
Vídeo
Texto + imagen
Texto + iconos
Frase destacada
Audio
Sección
Contextualiza tu tema con un subtítulo
Contenido insertado
Datos relevantes
Pregunta interactiva
Timeline
Conclusiones
Gráfico + texto
Cierre
Tabla + texto
Lista / procesos
ESCRIBE UNDesde la privacidad de los datos y la inteligencia artificial hasta la automatización y la influencia de las redes sociales, la tecnología presenta un amplio campo de dilemas que pueden tener consecuencias significativas a nivel global. La tecnología ha transformado todos los aspectos de nuestra vida, desde la forma en que nos comunicamos y trabajamos hasta la manera en que nos entretenemos e informamos. Este avance ha mejorado la calidad de vida de muchas personas en todo el mundo, pero también ha planteado cuestiones éticas cruciales que exigen nuestra atención. Cada vez más, vemos ejemplos de dilemas éticos que surgen en el mundo de la tecnología. Desde la privacidad de los datos y la inteligencia artificial hasta la automatización y la influencia de las redes sociales, la tecnología presenta un amplio campo de dilemas éticos. Estos dilemas no sólo tienen un impacto en la forma en que vivimos nuestras vidas diarias, sino que también pueden tener consecuencias significativas a nivel global. Uno de los problemas éticos más destacados es la privacidad de los datos. Según un informe de la firma de seguridad digital Norton, en 2022, se estimaba que más del 85% de los usuarios de Internet en todo el mundo estaban preocupados por la privacidad en línea. Además, se reportaron más de 4.000 millones de registros de datos comprometidos en violaciones de seguridad durante ese año, lo cual demuestra claramente que la privacidad de los datos es una cuestión de gran preocupación. Por su parte, la IA es otra área donde la ética desempeña un papel fundamental. Un estudio de PwC señala que, para 2025, la IA podría contribuir con US$15,7 billones a la economía global, pero también podrían eliminarse 7,2 millones de empleos. La pregunta ética aquí es cómo garantizar una transición justa y ética a medida que la IA transforma industrias enteras y afecta la vida de millones de personas. Le puede interesar: Un machine learning ético y justo La automatización es un tema sumamente relevante en el mundo laboral. Según el Foro Económico Mundial, para 2025, se espera que 85 millones de empleos sean reemplazados por la automatización en empresas de todo el mundo. Si bien se crearán nuevos empleos en el proceso, la transición puede ser desafiante para los trabajadores afectados. Las redes sociales son una poderosa herramienta de comunicación, pero también son un gran espacio de cultivo para la desinformación y la polarización. Según un informe de Pew Research, en 2021, el 64% de los estadounidenses consideraba que las noticias falsas tenían un impacto significativo en la confianza pública. La ética en este contexto implica cómo las plataformas de redes sociales abordan la desinformación y cómo equilibran la libertad de expresión con la protección contra la difusión de información engañosa. La ética en la tecnología es una cuestión apremiante que requiere una atención constante. Los datos estadísticos revelan la magnitud de los desafíos éticos que enfrentamos en un mundo cada vez más tecnológico. Si queremos aprovechar al máximo los beneficios de la tecnología y minimizar sus impactos negativos, es fundamental abordar estos dilemas de manera deliberada y responsable. Además: La inteligencia artificial puede ser responsable Nota principal SUBTÍTULO
Resumen
Contextualiza tu tema con un subtítulo
+190
+45k
+85k
TÍTULO AQUÍ
TÍTULO AQUÍ
TÍTULO AQUÍ
SUBTÍTULO En este trabajo se analiza la relación de la ética y la tecnología utilizando un enfoque deductivo. Asimismo, a partir de una rápida visión de algunos aspectos de la situación de la civilización posmoderna y de su percepción de la tecnología, se analiza la relación entre la tecnología y la valoración ética del mundo, de esta forma, se propone una apreciación ética positiva de la tecnología. Finalmente, se revisan algunos de los principales problemas que el desarrollo tecnológico plantea hoy a la ética, como la manipulación genética, la conservación del medio ambiente y la pobreza extrema. El propósito de este trabajo es contribuir, desde el punto de vista de un tecnólogo, al análisis de un tema que hoy, más que nunca, debe formar parte del acervo cultural de los ingenieros. El autor reconoce las dificultades de un estudio interdisciplinario como el que aquí se aborda, y no se propone obtener conclusiones o recomendaciones, solamente propiciar la reflexión sobre la relación entre ética y tecnología, así como algunos de sus problemas actuales. Descriptores: ética y tecnología, ética e ingeniería. Abstract In this work it is analyzed the relationshiy of the ethics and the technology, using a deductive focus. The social yerceytion of technology, yroducing social develoyment and well-being but also causing conflicts and danger, forcé a revisión of their ethics, in which the engineers must take yart. In this yayer the relationshiy of the ethics and the technology is analyzed, using a deductive ayyroach. Starting from a broad visión of some asyects of the situation of the yostmodern civilization and of their yerceytion of the technology, the relationshiy between technology and the ethical valuation of the world is analyzed, and a yositive ethical ayyreciation of the technology is intended. Finally, some main yroblems that the technological develoyment outlines today to the ethics, are revised: thegenetic maniyulation, the environmental conservation and the extreme yoverty alleviation. The yuryose of this work is to contribute, from the yoint of view of a technologist, to the analysis ofa toyic that today, more than ever, it should be yart of the engineers' background. The author recognizes the difficulties of an interdisciylinary study as the one that here is ayyroached, and he doesn't intend to obtain conclusions or recommendations, but to yromote the thinking on the technology and ethics relatíonshiy, and on several of their actual yroblems. Keywords: ethics and engineering ethics and technology. Ingeniería Investigación y Tecnología, ISSN 2594-0732, IV.3, 169-178, 2003 (artículo arbitrado) DOI:http://dx.doi.org/10.22201/fi.25940732e.2003.04n3.014 Introducción El análisis de la relación entre la ética y la tecnología debe abordarse como una necesidad de nuestro tiempo, que ha sido lacerado con frecuencia por la desvinculación entre los resultados que la tecnología produce y las metas legítimas del hombre. Este trabajo se ha escrito con este espíritu y con la convicción de que es importante abrir el tema y participar en su discusión, ya que a todos nos afecta. Esta presentación se ha planteado con un método deductivo; desde una revisión general de algunos aspectos de nuestra civilización, a los principales campos de problemas éticos en la tecnología actual. No puede ser de otra manera, porque en medio de la confusión actual, pocas cosas se pueden dar por sentadas. La crisis de la civilización ¿Cuál es el marco general en el que se ubica este análisis? Alejados más o menos de las principales corrientes culturales de nuestra época, vivimos sin embargo en la posmodernidad, que se caracteriza entre otros aspectos por la disolución de la permanencia del ser y de la noción de la historia como progreso, por la crisis de la verdad, la negación de todo absoluto, la crisis de la racionalidad, la crisis del humanismo y muerte de Dios en la conciencia y el corazón del hombre (Ruiz, 1996). Siguiendo algunos modernos intelectuales prestigiados, se describirán algunos elementos de esta sociedad posmoderna que se relacionan especialmente con la ética de la tecnología, aclarando que estos rasgos son globales, aunque se noten más en los países ricos de Europa y América del Norte. La crisis a la que asistimos es de enormes proporciones. Muchos intelectuales afirman sin ambages que vivimos en una sociedad profundamente decadente, que ha alcanzado niveles inauditos en su hundimiento, al punto que algunos lo consideran irreversible (Latourelle, 1997). Muchos autores identifican el inicio de esa decadencia con el nacimiento del racionalismo y la ilustración, concretamente con Voltaire y la Enciclopedia en el siglo XVIII. Siguiendo las ideas de Latourelle, se puede afirmar que entre los rasgos dominantes de esta sociedad, destaca en primer término, la ausencia del Absoluto. Como lo anunciaran Nietzche, Freud y Marx, Dios -en un sentido tanto cultural como espiritual- ha muerto en la conciencia de los hombres. No se admite siquiera la posibilidad de lo Absoluto, y por ello, lo que se encuentra es el relativismo y la indiferencia. Con esto, Occidente ha perdido sus valores: la familia ya no es el centro de la estabilidad emocional de los seres humanos, el trabajo se redujo a productividad, la autoridad se concibe como un factor de parálisis y la verdad se ha relativizado de tal modo que, con demasiada frecuencia, se confunde con la mentira e hipocresía. En este contexto cultural, los ingenieros y los tecnólogos han participado ampliamente en lo relativo al concepto de progreso, el cual domina en nuestra época, pero también en crisis y, definitivamente, ha sido declarado como un concepto pervertido. Algunos tecnólogos se han transformado en tecnócratas y han convertido a la tecnología en enemiga del hombre, destructora del medio ambiente y permanente amenaza en las guerras de nuestros días. Este siglo XXI, es también la era de la violencia tecnológica. Cada momento se libran una treintena de conflictos armados de diversa magnitud. Finalmente, la sociedad occidental, en particular en los países más desarrollados económicamente, en gran parte es hedonista: el generalizado culto del placer no tiene precedente histórico. Sin embargo, en medio de este panorama hay razones para la esperanza como la democratización de numerosos países, los grupos defensores de los derechos humanos, las organizaciones ciudadanas de tipo asistencial que hacen de la solidaridad su método, la existencia y actuación de organizaciones internacionales como el Programa de Naciones Unidas para el Desarrollo, La Organización de las Naciones Unidas para la Agricultura y la Alimentación, o la Organización Internacional del Trabajo; también la emergencia de nuevas tecnologías respetuosas del hombre y del medio ambiente y los DOI: http://dx.doi.org/10.22201/fi.25940732e.2003.04n3.014 movimientos ecologistas que defienden el mismo, así como el patrimonio de las futuras generaciones. No obstante, estos esfuerzos son aún incipientes y requieren de un refuerzo desde todas las trincheras posibles. La civilización evoluciona rápidamente a una más renovada, con detalles aún poco reconocibles. Un paso indispensable en la construcción de una nueva sociedad, es la recuperación de los valores. Rodríguez (1999) reconoce, por ejemplo, que “los valores de la sociedad tradicional -los de “nuestra” sociedad tradicional, habría que decir- han quebrado, pero no lo han hecho los valores que cimientan toda civilización, ya que de alguna manera son valores permanentes, de siempre. Por eso, la construcción de una nueva civilización o de una nueva cultura no podrá hacerse sin volver a ellos”. Esees uno de los cometidos de la ética. Valoración ética del mundo y tecnología Existen dos concepciones radicalmente distintas de la ética (Abbagnano, 1961), la primera, y que será la que se adopte en esta exposición, la considera la ciencia del fin y de los medios para alcanzarla, y el fin, no es otro que la propia naturaleza del hombre, vista en su plenitud. La segunda visión de la ética es la que la considera la ciencia del impulso, de la motivación de la conducta humana. Para la primera, el bien se identifica con un ideal de perfección -el bien es la felicidad-, para la segunda, el bien es el placer. La primera visión de la ética considerará que alcanzar la felicidad es el fin de la conducta humana, y la segunda pretenderá que el placer es el móvil de esa conducta. Si se sitúa al hombre y su felicidad como el propósito de la vida, entendida la felicidad como la condición en que cada ser humano hace más plena su propia naturaleza, entonces la técnica tendrá como objetivo ayudar a los seres humanos a alcanzar este propósito, que es: en el ámbito individual, lograr su más pleno desarrollo humano, y en lo colectivo, humanizar a la sociedad. Así también, a nivel de lo natural, preservar el medio ambiente de forma que los hombres de las futuras generaciones no vean coartado su propio derecho a la felicidad. Si el bien se concibe de esta manera, es legítima la pregunta ¿En qué grado la ciencia y la técnica han contribuido al bien de la humanidad? La técnica aquí, la entenderemos en el sentido aristotélico (Aristóteles, Met. 1070a) como el arte de todo lo que el hombre produce artificialmente, en oposición a lo natural. Interesa, sin embargo, el efecto de la técnica moderna, a la que se hará referencia en adelante de manera exclusiva. En su nacimiento en el siglo XVII, y sobre todo, desde la revolución industrial del siglo XVIII, la técnica moderna pareció prometer a los hombres la capacidad -el poder- de dominar la naturaleza para alcanzar la satisfacción de sus necesidades elementales. La tecnología, como la entendía Bertrand Russell en su famoso libro “La perspectiva científica” es la ciencia como poder, muy diferente a la ciencia básica, que sería la ciencia como conocimiento. A los teenólogos -científicos o ingenieros- se les deben reconocer los grandes logros de la técnica moderna como el aumento de la producción de alimentos, de la longevidad y de la salud, así como la disminución del dolor, por citar algunos. Sin embargo, estos logros no han alcanzado a todos, por lo que tenemos que reconocer que el poder de la tecnología no se ha utilizado con plena responsabilidad, al grado de que hoy en día, se plantea como un escenario posible el que sea un elemento ejecutor que conduzca a la destrucción. Ya no se trata solamente del peligro nuclear que desde los años cincuenta nos acompaña; ahora se añade el riesgo de una catástrofe ecológica global. Desafortunadamente, ambas posibilidades son reales. Así, a diferencia del sueño ingenuo de progreso ilimitado que parecía prometer, hoy coexisten dos visiones de la tecnología: una que la ve como un peligro, y otra como el mejor medio del hombre moderno para alcanzar la felicidad. Los primeros, que la observan con desconfianza, propugnan por su control, y entre los más extremistas, incluso por la vuelta a DOI: http://dx.doi.org/10.22201/fi.25940732e.2003.04n3.014 una era pretecnológica, a la manera de los asrams de Ghandi. Los segundos, reconociendo los problemas que la tecnología ha causado, los consideran efectos colaterales y confían que la propia investigación científica y tecnológica será suficiente para corregirlos y revertirlos. En el fondo de ambas posiciones, subsiste un problema más profundo que es preciso explicitar: dos visiones del mundo, una negativa y otra positiva, que a lo largo de la historia se han confrontado en diferentes culturas y que se han de considerar para comprender la relación entre ética, tecnología y sociedad. Esto debe tenerse en cuenta para establecer los puntos de partida de una ética de la tecnología. En primer término, se hará referencia a la visión pesimista del mundo que fluye ácidamente a lo largo de la historia. En la tradición judía, esta idea pesimista del mundo se observa en algunos libros sapienciales (escritos alrededor del siglo II antes de Cristo), especialmente en el libro de Qoéhelt (o Eclesiastés). En la tradición griega, esta es la visión del platonismo, que ve en el mundo natural un reflejo grosero y un lastre para lo espiritual que será lo verdadero (el cristianismo no estará exento de contaminarse de estas ideas, que producen de vez en vez esplritualismos exacerbados). En las tradiciones orientales, algunos conceptos del budismo podrían tomarse como el paradigma de esta visión negativa del mundo. Vale la pena recordar las cuatro verdades -aryastyanique según el sermón de Benarés forman la ley budista suprema: 1. Todo lo que existe está sujeto al dolor. 2. El origen del dolor reside en los deseos humanos. 3. La supresión del dolor proviene de la supresión de los deseos. 4. El método moral para llegar al nirvana es la eliminación de todo deseo (Riviere, 1984). Todas estas posiciones pesimistas con respecto al mundo y que recorren las diversas culturas, son difícilmente compatibles con una ética de la tecnología. ¿Cómo puede ser éticamente correcto trabajar para mejorar y hacer más agradable el mundo, si la primera regla de tal modo de pensamiento es despreciarlo? Es principalmente a partir de estas visiones del mundo que hoy se critica más a la tecnología. Afortunadamente, también existe una tradición con una visión optimista del mundo, la judeo-cristiana que se encuentra en la narración de la creación del Génesis. En este texto, cada día de la creación termina con la frase "y vio Dios que era bueno". En esta visión se ve al mundo y al hombre como esencialmente buenos, con un destino positivo, aunque no sea por ahora completamente evidente. Esta misma visión se encuentra en la filosofía medieval, especialmente en Tomás de Aquino, que desarrolla una teología positiva de la creación: “suprimir el orden de las cosas creadas es quitarles lo mejor que tienen; pues cada una es en sí misma buena, pero todas juntas son óptimas por razón del orden universal” (Suma contra los gentiles). Es la misma visión de Francisco de Asís, expresada en su famoso “cántico a las criaturas”. Esta visión optimista del mundo y del hombre, busca transformar la naturaleza, ha impulsado a la ciencia y la técnica y debe ser una característica fundamental de la ética de la tecnología. Así, se puede valorar a la tecnología como básicamente buena, aún en medio de los graves abusos que de ella se han hecho. Si bien precisamente por ellos, la responsabilidad de los tecnólogos de nuestra generación es aún mayor. Tecnología y problemas de la etica especial Refiriéndose a la ética, Riecken (1987) señala que las cuestiones apremiantes de nuestro tiempo no ocurren en la ética general, sino que se encuentran en los campos de la ética especial. ¿Cuáles son los problemas especiales a que se enfrenta hoy la ética de la tecnología? En general, se confrontan a nivel global tres problemas muy importantes: el medio ambiente, la manipulación genética y la desigualdad social. En seguida, se abundará en estos problemas. DOI: http://dx.doi.org/10.22201/fi.25940732e.2003.04n3.014 Ética, tecnología y manipulación genética Una de las ramas más recientes de la tecnología es la ingeniería genética. Es en esta disciplina donde se plantean ahora algunos de los mayores problemas éticos. ¿Hasta qué punto es éticamente aceptable la manipulación genética de especies diversas y, en último término, del propio ser humano? Pocos estarán enterados en detalle de los resultados de este proyecto internacional que tiene el potencial de producir la mayor revolución científica y social de toda la historia: el proyecto genoma humano. En primer término, es necesario aclarar que por genoma se entiende toda la información genética de una especie en particular. El proyecto genoma humano tiene como propósito descifrar, clasificar y conocer toda la información genética de los seres humanos. El proyecto comenzó en 1990, con la coordinación del Departamento de Energía y los Institutos Nacionales de Salud de los Estados Unidos. Es una investigación que se planteó con una duración de 15 años y que hace posible determinar los 80,000 genes que componen el DNA de los seres humanos y los tres billones de secuencias que lo constituyen, guardando la información en bases de datos. Hoy, este proyecto está prácticamente terminado. Algunos problemas éticos fundamentales surgen a la vista: ¿Puede alguien solicitar un examen genético como requisito para ejercer algún trabajo, contraer matrimonio, buscar un puesto público, etc.? ¿Cuál será el impacto psicológico causado a los individuos cuando conozcan sus “deficiencias genéticas”? ¿La información genética de los individuos deber ser privada? ¿Es de esperarse algún tipo de “discriminación por razones genéticas”? Una vez iniciada la manipulación genética ¿Se podrán patentar los nuevos genes? La existencia de anomalías genéticas muy probablemente cambiará nuestro concepto de salud y enfermedad. Para mayor claridad conviene plantear alguna situación que puede ocurrir en la realidad: Se considera que una persona tiene retraso mental cuando su coeficiente de inteligencia es inferior a 70 o 75. El 90% de las personas con retraso tienen un IQ entre 50 y 75. La causa de este problema es múltiple y en buena medida desconocida, pero ya se han determinado más de 750 desórdenes genéticos que pueden causar retraso mental. Cuando llegue el día en el que un individuo se pueda hacer un estudio completo de su material genético ¿Cuál será la probabilidad de que tenga uno de estos desórdenes genéticos? Si se identifica uno de ellos, al menos, su reacción emocional puede ser impredecible, tal vez tendrá problemas de autoestima —por decir lo menos-, tal vez se autolimite para procrear descendientes, y si esta información se divulga, ¿Cómo afectará a su pareja? No son problemas sencillos y es legítimo preguntarse si la ciencia tiene derecho a investigar y manipular nuestro más preciado patrimonio: la herencia genética. La posibilidad de que el genoma humano de cada individuo, el del lector y el del que escribe se conozca y manipule, es tan real que la UNESCO ha intervenido en el asunto, y en noviembre de 1997 emitió la “Declaración Universal sobre el Genoma Humano y los Derechos Humanos”, en el que quedan consagrados nuestros derechos en 25 artículos. Entre ellos, destaca el segundo en el que se cita que “Cada individuo tiene derecho al respeto de su dignidad y derechos, cualesquiera que sean sus características genéticas” y que “esa dignidad impone que no se reduzca a los individuos a sus características genéticas”. En su artículo quinto se establece que “en todos los casos (de investigación, tratamiento o un diagnóstico en relación con el genoma de un individuo), se recabará el consentimiento previo, libre e informado de la persona interesada”. Entramos ya al tema más controvertido de la ingeniería genética: La clonación de especies superiores y, eventualmente, del ser humano. Tal vez algunos piensen que esa es una probabilidad remota, que los científicos y tecnólogos -seguramente- no se atreverían a realizar clones humanos. La experiencia muestra que en la ciencia ocurre precisamente al DOI: http://dx.doi.org/10.22201/fi.25940732e.2003.04n3.014 revés: si algo es remotamente posible, se hará lo necesario para lograrlo -todo es cuestión de tiempo y recursos económicos-. En el número correspondiente a junio de 1998 de la revista Ciencia, de la Academia Mexicana de Ciencias, el filósofo Rodolfo Vázquez publica un artículo cuyo propósito es justificar éticamente la clonación. La propia Academia Mexicana de Ciencias realizó una encuesta entre sus miembros (Lisker y Tapia, 1997). Se les preguntó si sabían en qué consiste la clonación, si estarían de acuerdo en que se continuara la investigación sobre la clonación en mamíferos, incluyendo seres humanos, para solucionar un problema médico o social, por ejemplo la esterilidad, o para conocer más a fondo la biología celular y los mecanismos de la expresión genética. Finalmente, se les cuestionó si estaban de acuerdo en que, en principio y una vez superados los problemas técnicos que aún existen, se realizara la clonación de humanos; el 65% estuvo en contra, el 15% se declaró indeciso, y el 20% estuvo de acuerdo. Las cifras hablan por si mismas. La clonación y la manipulación genética de mamíferos será un procedimiento común en el futuro, y la manipulación genética y la clonación de seres humanos se verá como aceptable en determinadas circunstancias. Es un tema delicado en el que debemos participar, al menos en la vigilancia de la aplicación éticamente correcta de la ingeniería genética1. Ética, tecnología y medio ambiente Tal vez estos problemas parecerán lejanos a la mayoría de los ingenieros. Más cercano a ellos está el segundo gran problema de nuestra época en el que se plantean graves problemas éticos para los tecnólogos: la relación de la ingeniería con el medio ambiente. Es aquí donde el poder de la técnica se ha mostrado capaz de modificar de manera sustancial a la naturaleza. Aparte de que cada día desaparecen nuevas especies, se ha alterado de tal modo el contenido de gases de la atmósfera que todo parece indicar, se está causando un calentamiento global del planeta. Las obras que más enorgullecían a los ingenieros, las presas y las carreteras, son ahora de las más cuestionadas. Se afirma que las grandes presas ocasionan cambios irreversibles e inaceptables en el medio ambiente, disminuyendo o cortando el flujo natural en los cauces. Se sabe que las grandes presas son, incluso, capaces de producir sismos locales hasta de cuarto grado, sin considerar el riesgo de falla de estas obras. Hasta hace poco se pensaba que las centrales hidroelécticas causaban, comparativamente, poco daño al medio ambiente al no consumir el agua, sino sólo retenerla temporalmente. Hoy se sabe que, a menos que se hagan obras adicionales para evitarlo, el agua que se extrae de ellas, por provenir del fondo, sale de regiones eutroficadas con elevados valores de DBO (Demanda Biológica de Oxígeno). Asimismo, los cambios bruscos de flujo en el cauce aguas abajo, ocasionados por su operación para satisfacer las demandas pico, se sabe hoy que afectan a los alebines y pueden ocasionar una disminución en la población de peces en los ríos. En este contexto, cada vez que se proponga una nueva obra que pueda alterar el medio ambiente, así sea en pequeña escala, es un deber ético revisar si no se producirá un daño importante o irreversible al medio ambiente, evaluar sus efectos y tomar la decisión en conjunto con la sociedad. Sin embargo, el mayor cambio al ambiente ya se ha producido y sus efectos se extenderán, al menos, durante un siglo: el calentamiento global. Este se produce por el incremento de gases de invernadero en la atmósfera, fundamentalmente carbono. Se prevé que se incrementará la temperatura promedio de la Tierra, lo cual a su vez producirá efectos muy graves en el ciclo hidrológico, aumentando las necesidades hídricas de los cultivos y alterando la precipitación y el escurrimiento. La ONU estableció un Panel Intergubernamental para el estudio de este problema global, 1 Para informarse de los últimos avances del proyecto del genoma humano, se recomienda visitar la página web http://www.ornl.gov/hgmis “Human Genome Project Information”. DOI: http://dx.doi.org/10.22201/fi.25940732e.2003.04n3.014 denominado IPCC (por International Panel for Climate Change). El grupo de trabajo correspondiente al estudio científico del cambio climático, determinó que se registraban incrementos sustanciales de los gases de invernadero presentes en la atmósfera, debido a las actividades humanas, en particular, desde la era industrial y que estos incrementos intensificarían el efecto natural de invernadero (Houhghton, 1991). Se plantearon diversos escenarios y utilizando modelos de circulación global, se evaluaron los efectos en esos escenarios. En todos ellos se pronosticaron incrementos en la temperatura, con los consecuentes cambios en la precipitación y el escurrimiento. Desde entonces, se ha desarrollado una abundante investigación en el tema, fundamentalmente en las siguientes líneas de trabajo: determinación de las emisiones de gases de invernadero (inventario de gases de invernadero), mejoramiento de los modelos globales, colección de datos, y establecimiento de posibles efectos del calentamiento global, medidas de mitigación y medidas de adaptación. En 1995, el grupo de trabajo dedicado al estudio de los impactos, medidas de adaptación y mitigación, publicó un segundo informe (Watson et al., 1995) en el que precisa que en promedio cabe esperar un incremento de la temperatura de entre 1 a 3.5 °C y un incremento del nivel medio del mar de entre 15 y 95 cm. El tercer reporte de vulnerabilidad (Manning y Noble, 2001), en donde se recopila la más reciente información sobre el tema, ha concluido estimaciones más pesimistas; para el año del 2100 la concentración de C 0 2 se elevará entre 478 ppmv y 1099 ppmv, la temperatura media de la Tierra se incrementará entre 1.4°C y 5.8°C y el nivel medio del mar aumentará entre 9 y 88 cm. Los efectos sobre la precipitación serán variables, dependiendo de la región de que se trate, si bien, son necesarios estudios regionales, dado que a ese nivel los resultados de las simulaciones con modelos globales necesitan ser refinados. No obstante, el grupo de trabajo II del IPCC estima que, a pesar de estas incertidumbres, “se han identificado cambios con un potencial serio, incluyendo, en algunas regiones, un incremento en la incidencia de eventos extremos de altas temperaturas, inundaciones y sequías, con las consecuencias de incendios, epidemias, y composición, estructura y funcionamiento de los ecosistemas, incluyendo productividad primaria”. De acuerdo con el reporte del grupo II del IPCC, los cambios en el ciclo hidrológico y en el manejo de los recursos hidráulicos serán de enorm e im portancia. El documento indica que “el cambio climático producirá una intensificación del ciclo hidrológico global y tendrá impactos importantes en los recursos hidráulicos globales y regionales. Cambios en el volumen y distribución del recurso hidráulico afectarán los abastecimientos de agua superficial y subterránea para usos doméstico, industrial, irrigación, generación de energía, navegación, caudal ecológico y usos recreativos”. No obstante, la estimación de los efectos del cambio climático en los recursos hidráulicos ha resultado muy difícil de realizar. El primer esfuerzo internacional para analizar este problema se realizó en 1986, mediante un simposio internacional, cuyos resultados fueron publicados por Solomon et al. (1987). En ese año, la Organización Meteorológica Mundial puntualizaba que había muy pocos artículos publicados en el tema (Askew, 1987). Diez años después, el Secretario General de la OMM, G.O.P. Obasi (1997), recomendó como una de las estrategias prioritarias para hacer frente al efecto del cambio climático en los recursos hidráulicos, que “se promoviera la investigación relativa al impacto potencial del clima, la variabilidad climática y el cambio climático sobre los recursos hidráulicos de una región o cuenca hidrológica, y que se haga uso de esta información cuando se planee el aprovechamiento de estos recursos”. Los efectos negativos del cambio climático en la disponibilidad de agua se sumarán al incremento de la población y a una mayor competencia por un DOI: http://dx.doi.org/10.22201/fi.25940732e.2003.04n3.014 recurso cada vez más escaso. Así, el cambio climático exacerbará la problemática futura de escasez y hará no sustentable el desarrollo de algunas regiones. En México, las regiones con mayor riesgo serán las zonas agrícolas asentadas en el norte y centro, con climas árido y semiárido (Martínez etal., 1995, 1996 y 1998). En este campo, el proceder ético de los tecnólogos debe considerar la adopción de un compromiso real para conocer, asimilar y poner en práctica medidas de prevención y atenuación de los efectos del calentamiento global y, en general, adoptar y ejercer los principios del desarrollo sustentable. Es también un deber ético alertar a la población sobre los riesgos del calentamiento global, y las medidas que cada ciudadano puede adoptar para atenuar sus efectos. Ética, tecnología y pobreza extrema El tercer gran problema de la ética especial con el que la técnica tiene que ver, es el de la inequidad social, que en nuestro país se manifiesta en la existencia de 40 millones de personas que viven en la pobreza, que se observa sobre todo en el medio rural. En México existen, de acuerdo con INEGI, 201,138 comunidades rurales. De ellas, sólo alrededor del 12%, en 1992, tenía servicios de saneamiento básico, y menos de la mitad cuentan con abastecimiento de agua potable. En esas zonas rurales viven alrededor de 24.15 millones de habitantes. Así, estamos hablando de millones de personas en este país que no cuentan con los más elementales servicios: agua y saneamiento. Definitivamente, en esta situación los tecnólogos tienen mucho por hacer, y la conducta ética apropiada será sin duda el contribuir de todas las maneras posibles, a revertir esta situación. He aquí algunas sugerencias: las organizaciones gremiales podrían brindar asesoría y apoyo a estas comunidades, algunos ingenieros -como hacen algunos médicos- podrían dedicar una parte de su tiempo al año para colaborar con ellas, los investigadores en las universidades podrían dedicarse a desarrollar tecnologías apropiadas para estas condiciones, aunque no se puedan publicar en "revistas de reconocido prestigio y con arbitraje internacional”. Desde luego, una de las mayores dificultades en la generación de tecnologías para atacar la pobreza extrema, es la carencia de fondos para la investigación aplicada en este campo. Por ejemplo, a lo largo del siglo pasado se han dedicado enormes cantidades de dinero al desarrollo de sistemas de riego y cultivo para grandes extensiones de tierra. Todos han visto las imágenes de enormes tractores o cosechadoras, o sistemas de riego de pivote central que cubren enormes extensiones, por mencionar algunas tecnologías de gran impacto. Sin embargo, en México, la superficie promedio de tenencia de la tierra es de poco más de dos hectáreas por propietario. Para cultivar adecuadamente estas pequeñas superficies, no hay aún, por increíble que parezca, la tecnología de riego apropiada (Postel et al., 2001). Conclusiones En temas tan complejos no es posible, ni es el objeto de este ensayo, obtener conclusiones que serían sin duda controvertidas. A manera de consideración final, se puede decir que aunque el panorama actual del desarrollo tecnológico y su impacto social se ve ensombrecido por graves problemas con una fuerte componente ética, el primer paso en la solución de esta problemática es reconocer su existencia en toda su profundidad, y abrir el tema a la discusión ética. En segundo término, mantener una postura optimista, de confianza en la capacidad de los ingenieros y en el propio desarrollo tecnológico para contribuir a su solución -misma que por supuesto no depende exclusivamente de estos profesionales- cuidando que se produzca una gestión rigurosamente ética de la tecnología hacia los grandes conflictos actuales, algunos de los cuales se han bosquejado en este texto. Finalmente, cada ingeniera e ingeniero debe sopesar en el futuro, ahora más que nunca, las implicaciones éticas de su ejercicio profesional. DOI: http://dx.doi.org/10.22201/fi.25940732e.2003.04n3.014 Referencias Abbagnano N. (1961). Diccionario de filosofía. Fondo de Cultura Económica. México. Houghthon J.J. (1991). Scientific Assesment of Climate Change: Summary of the IPCC Working Group I Report, en Climate Change: Science, impacts, and Policy. OMM. Cambrige University Press. Latourelle R. (1997). Una llamada a la esperanza. Editorial Sígueme. Salamanca. España. Lisker R. y Tapia R. (1997). Clonación en humanos. Ciencia, Vol. 48, No. 3, Septiembre. Academia Mexicana de Ciencias. México DF, 5-13. Mannmg M. y Noble C. (2001). Impacts, Adaptation and Vulnerability. Technical Summary. Repon of the Working Group II of the IPCC. WMO. Martínez-Austria P. y Mundo M.M. (1995). Climate Change Effects on Yaqui Valley Agriculture. Management of Water Resources in North America III. Anticipating the 21st century. American Society of Civil Engineering. Martínez-Austria P.; Hernández L. y Mundo M.M. (1996). Climate Change and its Effects on Agricultural Production in Northern México. Proceedings of the 6th International Conference on Computers in Agriculture, held in Cancun, México, 11-14, June. Martínez-Austria P., Hernández L. y Mundo Molina M. (1998). Global Warming Effects on the Water Balance in México. 7th International Conference on Computers in Agriculture. Florida, october 26-30th, ASAE, The Society for Engineering and Agricultural, Food and Biological Systems. Postel S., Polak P., González F. y Séller J. (2001). Drip Irrigation for Small Farners: A New Initiative to Alleviate Hunger and Poverty. Water International, Vol. 26, No. 1, 3-13. Riecken F. (1987). Etica general. Editorial Herder. Barcelona, España. Riviere J.R. (1984). Budismo. En el mundo de las religiones. Tomo II. Editorial Marín. Barcelona, España. Rodríguez-Arana M. J. (1999). La ética y el hombre. Papeles de ética, economía y dirección. No. 4. Madrid. España. Ruiz-Rodríguez V. (1996). Ética y mundo actual. Cuaderno de Filosofía No. 29. Universidad Iberoamericana. México, DF. Solomon S.I., Beran M. y Hogg W.g, Editores (1987). The Influence of Climate Change and Climate Variablity on the Hydrological Regime and Water Resources. IAHS Publication, No. 168. Unesco (1997). Declaración Universal sobre el Genoma Humano y los Derechos Humanos. XXIX Reunión de la Conferencia General. París, Francia. Vázquez R. (1998). Ética y clonación. Ciencia. Vol.49, No. 2, Junio. Academia Mexicana de Ciencias. México, DF. 5-10. Watson R.T., Zinyowera M.C. y Moss R. Editores. (1995). Climate Change 1995■ Itnpacts, Adaptations and Mitigation of Climate Change: ScientificT-echnical Analyses. Cambrige Univesity Press. AQUÍ
SUBTÍTULO AQUÍ
SUBTÍTULO AQUÍ
Contextualiza tu tema con un subtítulo
Si vas a presentar en directo, te recomendamos que entrenes tu voz y ensayes: ¡la mejor improvisación siempre es lamás trabajada!.
Demuestra entusiasmo, esboza una sonrisa y mantén el contacto visual con tu audiencia: 'The eyes, chico. They never lie'.
Un gran poder conlleva una gran responsabilidad. La frase resulta tópica desde que Stan Lee, el creador de Un gran poder conlleva una gran responsabilidad. La frase resulta tópica desde que Stan Lee, el creador de Spider-Man, contribuyó a divulgarla en sus cómics, pero no por ello deja de ser cierta. La inteligencia artificial (IA) es un campo de innovación tecnológica en el que se están produciendo avances asombrosos. Aunque el concepto existe desde la conferencia de Dartmouth, en 1956, ha sido en el último decenio cuando los sistemas de IA y algoritmos han irrumpido con contundencia en nuestras vidas cotidianas. Según el científico cognitivo Marvin Minsky, hemos enseñado a los ordenadores a tomar decisiones autónomas “que requieren inteligencia”, y ese es un logro “tan espectacular y esperanzador como inquietante”. Ya no se trata de robots que ejecutan con precisión tareas predeterminadas, sino de sistemas artificiales que “deciden” por sí mismos, simulando nuestros procesos cognitivos y de aprendizaje. Para David Leslie, del Alan Turing Institute (Londres), autor del documento pionero Understanding Artificial Intelligence Ethics and Safety, “cuando los seres humanos realizan tareas que requieren inteligencia, se les hace responsables del grado de precisión, fiabilidad y sensatez de sus decisiones”. En especial, se les juzga por “el efecto de sus acciones sobre otros seres humanos”. Y ese grado de exigencia ética y jurídica hay que aplicarlo también a los cada vez más complejos y sofisticados sistemas de inteligencia artificial de los que hacemos uso en campos como la salud, la educación, el transporte o la seguridad. Pero aquí entra un debate: ¿puede la IA ser responsable ética y jurídicamente de sus actos? El avance de los sistemas de vigilancia en aeropuertos, basado en la Inteligencia Artificial, también supone un riesgo ético. Cámaras térmicas o de reconocimiento facial son una realidad en aeropuertos. El avance de los sistemas de vigilancia en aeropuertos, basado en la Inteligencia Artificial, también supone un riesgo ético. Cámaras térmicas o de reconocimiento facial son una realidad en aeropuertos. Izabela Habur (Getty Images) Seguridad escrupulosa y no invasiva Estos dilemas se plantean con especial nitidez en un ámbito tan sensible a la innovación como el de la seguridad privada. “La tecnología da superpoderes a nuestros vigilantes”, nos cuenta José Daniel García Espinel, director de Innovación de Prosegur. La empresa de seguridad está inmersa en un proceso de profunda renovación tecnológica para el que la pandemia ha servido de acelerador. Hoy, disponen de sistemas de análisis cualitativo de las imágenes obtenidas por cámaras de videovigilancia, sistemas pioneros de detección de incendios, ruidos, gases o caídas de objetos, controles de acceso no invasivos con toma de temperatura y comprobación de equipos de protección de seguridad individual… Todo un arsenal tecnológico de novísimo cuño puesto al servicio de la creación de entornos cada vez más seguros y que hace, tal y como explica, García Espinel, “un uso intensivo de algoritmos de inteligencia artificial de desarrollo propio o el uso de otros ya existentes”. La aplicación de las nuevas tecnologías a la vigilancia en infraestructuras de transporte se ha hecho con pleno respeto al actual marco legal de protección de datos y bajo una reflexión ética del uso de la inteligencia artificial José Daniel García Espinel, director de Innovación de Prosegur Un ejemplo de cómo funcionan en la práctica estas nuevas tecnologías aplicadas a la seguridad y la vigilancia es en las infraestructuras de transporte, un entorno en que los controles se pueden desarrollar de manera rápida y fluida, sin incomodidades para el usuario, porque apoyando al vigilante hay una videocámara inteligente conectada a un sistema de comunicaciones, una central de control remoto y un centro de operaciones de seguridad (SOC, por sus siglas en inglés). García Espinel destaca que “este salto cualitativo se ha hecho de manera muy escrupulosa, con pleno respeto al actual marco legal de protección de datos y bajo una reflexión previa sobre los debates éticos que plantea el uso de tecnologías como la inteligencia artificial”. Un nuevo marco legal El pasado 21 de abril, la Comisión Europea hizo públicas las bases de su futuro reglamento sobre el uso de la inteligencia artificial. En ellas se asume que “los beneficios potenciales de la IA para nuestras sociedades son múltiples” y que la mayoría de sistemas implementados presentarán “un riesgo bajo o nulo”. Sin embargo, en los casos puntuales en que esos riesgos existan, la Comisión se compromete a garantizar “la tutela de los derechos fundamentales de los ciudadanos europeos”. Y para ello se prevé un sistema de sanciones administrativas que afecta tanto a los prestadores de esos sistemas de IA como a sus usuarios. Las infracciones más graves conllevarán multas de hasta 30 millones de euros o, si el infractor es una empresa, hasta el 6% de su volumen de negocio anual. Los directivos de las grandes empresas deberían ser conscientes de que algunas de las decisiones pueden lesionar derechos y llegar a ser inmorales Iñaki Ortega, economista y profesor en la Universidad Internacional de La Rioja (UNIR) Para el economista y profesor en la Universidad Internacional de La Rioja (UNIR), Iñaki Ortega, la hora de la plena responsabilidad ha llegado: “Los directivos de las grandes empresas deberían ser conscientes de que algunas de las decisiones que adoptan en el ejercicio de su actividad pueden lesionar derechos y llegar a ser inmorales”. Detrás de la utilización poco escrupulosa de algoritmos y sistemas “hay profesionales concretos”. Él propone “una especie de nuevo juramento hipocrático para estos tecnólogos, algo que muchas instituciones ya están planteando”. Prosegur está desarrollando un reglamento interno y creando un comité específico de inteligencia artificial que aborda cuestiones éticas. Prosegur está desarrollando un reglamento interno y creando un comité específico de inteligencia artificial que aborda cuestiones éticas. CEDIDA POR PROSEGUR / CÉSAR MANSO En especial, Ortega valora muy positivamente uno de esos compromisos éticos, “el llamado juramento tecnocrático que promueve la Universidad de Columbia con el neurobiólogo español Rafael Yuste: los emprendedores, investigadores, informáticos y cualquier profesional involucrado en la neurotecnología o la inteligencia artificial deberían suscribirlo”. Sería un juramento público “para darle mayor solemnidad y peso moral”, e incluiría compromisos como “la no maleficencia (la tecnología debe aplicarse siempre sin voluntad de causar daño), la búsqueda del bien común, el consentimiento de los afectados, la imparcialidad de los algoritmos (que no deben incluir ningún sesgo discriminatorio), la transparencia y el pleno respeto por la dignidad de las personas”. La transparencia y el respeto a la privacidad son cualidades que solemos exigir a las instituciones públicas pero con frecuencia olvidamos pedírselos también a quienes desarrollan algoritmos Maite López Sánchez, profesora de la Universitat de Barcelona En el mismo sentido va la reflexión de Maite López Sánchez, profesora de la Universitat de Barcelona y coordinadora del máster interuniversitario de inteligencia artificial. Para la académica, “cada vez somos más conscientes de que el diseño de algoritmos y sistemas de IA debe ser más respetuoso con los valores éticos de las personas, y eso implica ir un paso más allá de si es legal o no para contemplar también hasta qué punto es compatible con nuestro sistema ético de valores”. Entre ese conjunto de principios, López valora muy oficialmente “la transparencia y el respeto a la privacidad”. Y recuerda que son cualidades que solemos exigir a las instituciones públicas “pero con frecuencia olvidamos pedírselos también a quienes desarrollan algoritmos”. Un imperativo ético asumido por las principales empresas En el mundo de la empresa, compañías como Google, Hewlett Packard o Microsoft están desarrollando en los últimos años sus propios protocolos y códigos morales internos basados en muy exigentes criterios de responsabilidad corporativa. Para Tim Bajarin, experto en tecnología y derechos de los consumidores, estos manuales de buenas prácticas tienen en común “la voluntad de ir incluso más allá de los nuevos marcos legales que se están desarrollando en la Unión Europea, Estados Unidos y Gran Bretaña”. Todos parten, según Bajarin, de una estimación realista “de lo que podría salir mal si no nos ceñimos a una serie de directrices y principios rectores muy estrictos que, en primer lugar, nos obligan a plantearnos si una tecnología de este tipo es realmente necesaria y si sus beneficios potenciales superan con claridad a sus posibles riesgos”. En Prosegur disponen de tecnologías para detectar automáticamente, en remoto, el uso de equipos de protección de los trabajadores en los entornos industriales: cascos, guantes, mascarillas… En Prosegur disponen de tecnologías para detectar automáticamente, en remoto, el uso de equipos de protección de los trabajadores en los entornos industriales: cascos, guantes, mascarillas… CEDIDA POR PROSEGUR / CÉSAR MANSO Para Daniel Bastida, Delegado de Protección de Datos de Prosegur, “antes de desarrollar cualquier sistema de inteligencia artificial, hay que plantearse si resulta necesario, proporcionado e idóneo”. Esos son los tres criterios básicos que aplica su compañía para garantizar que “todos nuestros procesos de innovación tecnológica partan en primer lugar de una reflexión ética”. Prosegur se está anticipando al nuevo marco legal que va a consolidarse en Europa y en España, desarrollando un reglamento interno y creando un comité específico de inteligencia artificial en el que estarán representados varios departamentos de la compañía, “de protección de datos e innovación a licencias, recursos humanos o el equipo jurídico”, según cuenta Bastida. En todos los casos, “será el juicio ético el que determine las reglas del juego”. Protección adecuada de datos sensibles Bastida pone un ejemplo práctico de los protocolos que está aplicando ya su compañía: “En nuestros procesos de análisis y entrenamiento de algoritmos estamos usando datos sintéticos para asegurarnos de que no se compromete la privacidad de las personas”. García Espinel explica el concepto: “Disponemos de tecnologías para detectar automáticamente el uso de equipos de protección personal, es decir, de los elementos que garantizan la seguridad de los trabajadores en entornos industriales: cascos, guantes, mascarillas… Para que las cámaras de videovigilancia inteligente reconozcan si todos los que acceden llevan el equipo completo y puesto correctamente, necesitamos entrenar a nuestros algoritmos de análisis cualitativo con imágenes de personas con o sin casco, con o sin guantes, con la mascarilla bien y mal puesta. Si hiciésemos uso de imágenes reales recogidas de manera aleatoria sin autorización, estaríamos vulnerando el derecho a la privacidad de las personas que aparecen en ellas. Así que hemos recurrido a un sistema de creación de imágenes sintéticas a partir de modelos 3D generados por ordenador”. Antes de desarrollar cualquier sistema de inteligencia artificial, hay que plantearse si resulta necesario, proporcionado e idóneo Daniel Bastida, delegado de Protección de Datos de Prosegur El responsable de innovación añade: “Algunos sistemas de inteligencia artificial requieren un número limitado de imágenes reales de partida, lo que llamamos datos semilla, por lo que en esos casos los generamos retratando a modelos que previamente han firmado un consentimiento informado”. Bastida añade que Prosegur se está tomando muy en serio la prohibición, consagrada en el Reglamento Europeo de Protección de Datos, de generar y conservar datos biométricos (huellas dactilares, reconocimiento facial, de voz, de retina, de manera de andar, de escritura en teclado…) salvo en circunstancias excepcionales que así lo requieran: “En sistemas de desbloqueo de alarma mediante contraseña y reconocimiento de voz, recogemos el dato biométrico, lo comparamos y lo eliminamos de inmediato. Y procedemos siempre con consentimiento explícito de los afectados”. Para García Espinel, “estos recursos tecnológicos suponen un incremento exponencial de la seguridad de los implicados. La videovigilancia con análisis inteligente de flujo de datos nos permite detectar cosas que sin ella no percibiríamos, es un potenciador extraordinariamente eficaz de las capacidades del vigilante”. No sustituye a la proximidad física ni la capacidad de intervención del ser humano “pero sí le permite disponer de un plan B y de un plan C al servicio del objetivo final, que es garantizar entornos seguros”. La guinda del pastel es, por supuesto, que a todas estas virtudes se añada un análisis riguroso de los posibles riesgos e implicaciones éticas. Hacia un humanismo tecnológico Para Iñaki Ortega, que además de académico es coautor del ensayo La buena tecnología, protocolos internos, manuales de responsabilidad corporativa y comités de ética van en la dirección adecuada: “Los profesionales de todo el mundo deben reconocer su responsabilidad compartida en el impacto de las tecnologías de la información”. Desde su punto de vista, “la buena tecnología ha sido uno de los grandes descubrimientos de la era de la pandemia”. Las innovaciones disponibles “son el presente y no deben alarmarnos”. Sin embargo, “es preocupante que un uso indebido de los grandes conjuntos de datos personales recolectados gracias a ella pueda lesionar la privacidad, la reputación e incluso la dignidad del ser humano”. Una vez más, hay que poner el acento en la responsabilidad que implica todo gran poder: “En esta línea, en mayo de 2019, varios académicos y tecnólogos publicaron el conocido como 'Manifiesto de Viena del Humanismo Digital'. En él apuestan por configurar las tecnologías de acuerdo con los valores y las necesidades humanas en lugar de permitir que sean las tecnologías basadas en intereses espurios las que den forma a los seres humanos”. Sobre la firma Miquel Echarri Miquel Echarri Ver biografía Archivado En Prosegur Inteligencia artificial Seguridad ciudadana Seguridad en el transporte Innovación Se adhiere a los criterios de The Trust Project Más información Si está interesado en licenciar este contenido contacte con ventacontenidos@prisamedia.com el tiempo guía tv cartelera juegos Crucigramas calculadoras sorteos Portada del día: El País Comprar ejemplar Archivo portadas newsletter Madrid Toda la información política, social y cultural de la comunidad. La mirada de nuestros reporteros de Local para acercarte la actualidad de otra manera Televisión Las novedades de canales y plataformas, con entrevistas, noticias y análisis, además de las recomendaciones y críticas de nuestros periodistas especializados Hemeroteca hemeroteca Descarga la APP: google play apple store Crucigramas Juegos Escaparate Descuentos Colecciones Escuela de Periodismo El País + Si quieres apoyar la elaboración de periodismo de calidad suscríbete ahora Ángela Chica, Leo Rivera, Francesc Ferrer y Laura Pau en la comedia 'La piel fina' ‘La piel fina’ en el Teatro Pavón La obra 'Prima Facie' será la primera producción del National Theatre que emitirá +Que Cine, la ventana de contenidos alternativos de Cine Yelmo. Disfruta de ‘Prima Facie’ en gran pantalla con +Que Cine Accede a las ventajas de ELPAIS © Ediciones EL PAÍS EL PAÍS realiza una reserva expresa de las reproducciones y usos de las obras y otras prestaciones accesibles desde este sitio web a medios de lectura mecánica u otros medios que resulten adecuados a tal fin de conformidad con el artículo 67.3 del Real Decreto - ley 24/2021, de 2 de noviembre ContactoAviso legalPolítica cookiesConfiguración de cookiesPolítica de privacidadMapaSuscripcionesSuscripciones para empresasRSSNewslettersÍndice de temas , contribuyó a divulgarla en sus cómics, pero no por ello deja de ser cierta. La inteligencia artificial (IA) es un campo de innovación tecnológica en el que se están produciendo avances asombrosos. Aunque el concepto existe desde la conferencia de Dartmouth, en 1956, ha sido en el último decenio cuando los sistemas de IA y algoritmos han irrumpido con contundencia en nuestras vidas cotidianas. Según el científico cognitivo Marvin Minsky, hemos enseñado a los ordenadores a tomar decisiones autónomas “que requieren inteligencia”, y ese es un logro “tan espectacular y esperanzador como inquietante”. Ya no se trata de robots que ejecutan con precisión tareas predeterminadas, sino de sistemas artificiales que “deciden” por sí mismos, simulando nuestros procesos cognitivos y de aprendizaje. Para David Leslie, del Alan Turing Institute (Londres), autor del documento pionero Understanding Artificial Intelligence Ethics and Safety, “cuando los seres humanos realizan tareas que requieren inteligencia, se les hace responsables del grado de precisión, fiabilidad y sensatez de sus decisiones”. En especial, se les juzga por “el efecto de sus acciones sobre otros seres humanos”. Y ese grado de exigencia ética y jurídica hay que aplicarlo también a los cada vez más complejos y sofisticados sistemas de inteligencia artificial de los que hacemos uso en campos como la salud, la educación, el transporte o la seguridad. Pero aquí entra un debate: ¿puede la IA ser responsable ética y jurídicamente de sus actos? El avance de los sistemas de vigilancia en aeropuertos, basado en la Inteligencia Artificial, también supone un riesgo ético. Cámaras térmicas o de reconocimiento facial son una realidad en aeropuertos. El avance de los sistemas de vigilancia en aeropuertos, basado en la Inteligencia Artificial, también supone un riesgo ético. Cámaras térmicas o de reconocimiento facial son una realidad en aeropuertos. Izabela Habur (Getty Images) Seguridad escrupulosa y no invasiva Estos dilemas se plantean con especial nitidez en un ámbito tan sensible a la innovación como el de la seguridad privada. “La tecnología da superpoderes a nuestros vigilantes”, nos cuenta José Daniel García Espinel, director de Innovación de Prosegur. La empresa de seguridad está inmersa en un proceso de profunda renovación tecnológica para el que la pandemia ha servido de acelerador. Hoy, disponen de sistemas de análisis cualitativo de las imágenes obtenidas por cámaras de videovigilancia, sistemas pioneros de detección de incendios, ruidos, gases o caídas de objetos, controles de acceso no invasivos con toma de temperatura y comprobación de equipos de protección de seguridad individual… Todo un arsenal tecnológico de novísimo cuño puesto al servicio de la creación de entornos cada vez más seguros y que hace, tal y como explica, García Espinel, “un uso intensivo de algoritmos de inteligencia artificial de desarrollo propio o el uso de otros ya existentes”. La aplicación de las nuevas tecnologías a la vigilancia en infraestructuras de transporte se ha hecho con pleno respeto al actual marco legal de protección de datos y bajo una reflexión ética del uso de la inteligencia artificial José Daniel García Espinel, director de Innovación de Prosegur Un ejemplo de cómo funcionan en la práctica estas nuevas tecnologías aplicadas a la seguridad y la vigilancia es en las infraestructuras de transporte, un entorno en que los controles se pueden desarrollar de manera rápida y fluida, sin incomodidades para el usuario, porque apoyando al vigilante hay una videocámara inteligente conectada a un sistema de comunicaciones, una central de control remoto y un centro de operaciones de seguridad (SOC, por sus siglas en inglés). García Espinel destaca que “este salto cualitativo se ha hecho de manera muy escrupulosa, con pleno respeto al actual marco legal de protección de datos y bajo una reflexión previa sobre los debates éticos que plantea el uso de tecnologías como la inteligencia artificial”. Un nuevo marco legal El pasado 21 de abril, la Comisión Europea hizo públicas las bases de su futuro reglamento sobre el uso de la inteligencia artificial. En ellas se asume que “los beneficios potenciales de la IA para nuestras sociedades son múltiples” y que la mayoría de sistemas implementados presentarán “un riesgo bajo o nulo”. Sin embargo, en los casos puntuales en que esos riesgos existan, la Comisión se compromete a garantizar “la tutela de los derechos fundamentales de los ciudadanos europeos”. Y para ello se prevé un sistema de sanciones administrativas que afecta tanto a los prestadores de esos sistemas de IA como a sus usuarios. Las infracciones más graves conllevarán multas de hasta 30 millones de euros o, si el infractor es una empresa, hasta el 6% de su volumen de negocio anual. Los directivos de las grandes empresas deberían ser conscientes de que algunas de las decisiones pueden lesionar derechos y llegar a ser inmorales Iñaki Ortega, economista y profesor en la Universidad Internacional de La Rioja (UNIR) Para el economista y profesor en la Universidad Internacional de La Rioja (UNIR), Iñaki Ortega, la hora de la plena responsabilidad ha llegado: “Los directivos de las grandes empresas deberían ser conscientes de que algunas de las decisiones que adoptan en el ejercicio de su actividad pueden lesionar derechos y llegar a ser inmorales”. Detrás de la utilización poco escrupulosa de algoritmos y sistemas “hay profesionales concretos”. Él propone “una especie de nuevo juramento hipocrático para estos tecnólogos, algo que muchas instituciones ya están planteando”. Prosegur está desarrollando un reglamento interno y creando un comité específico de inteligencia artificial que aborda cuestiones éticas. Prosegur está desarrollando un reglamento interno y creando un comité específico de inteligencia artificial que aborda cuestiones éticas. CEDIDA POR PROSEGUR / CÉSAR MANSO En especial, Ortega valora muy positivamente uno de esos compromisos éticos, “el llamado juramento tecnocrático que promueve la Universidad de Columbia con el neurobiólogo español Rafael Yuste: los emprendedores, investigadores, informáticos y cualquier profesional involucrado en la neurotecnología o la inteligencia artificial deberían suscribirlo”. Sería un juramento público “para darle mayor solemnidad y peso moral”, e incluiría compromisos como “la no maleficencia (la tecnología debe aplicarse siempre sin voluntad de causar daño), la búsqueda del bien común, el consentimiento de los afectados, la imparcialidad de los algoritmos (que no deben incluir ningún sesgo discriminatorio), la transparencia y el pleno respeto por la dignidad de las personas”. La transparencia y el respeto a la privacidad son cualidades que solemos exigir a las instituciones públicas pero con frecuencia olvidamos pedírselos también a quienes desarrollan algoritmos Maite López Sánchez, profesora de la Universitat de Barcelona En el mismo sentido va la reflexión de Maite López Sánchez, profesora de la Universitat de Barcelona y coordinadora del máster interuniversitario de inteligencia artificial. Para la académica, “cada vez somos más conscientes de que el diseño de algoritmos y sistemas de IA debe ser más respetuoso con los valores éticos de las personas, y eso implica ir un paso más allá de si es legal o no para contemplar también hasta qué punto es compatible con nuestro sistema ético de valores”. Entre ese conjunto de principios, López valora muy oficialmente “la transparencia y el respeto a la privacidad”. Y recuerda que son cualidades que solemos exigir a las instituciones públicas “pero con frecuencia olvidamos pedírselos también a quienes desarrollan algoritmos”. Un imperativo ético asumido por las principales empresas En el mundo de la empresa, compañías como Google, Hewlett Packard o Microsoft están desarrollando en los últimos años sus propios protocolos y códigos morales internos basados en muy exigentes criterios de responsabilidad corporativa. Para Tim Bajarin, experto en tecnología y derechos de los consumidores, estos manuales de buenas prácticas tienen en común “la voluntad de ir incluso más allá de los nuevos marcos legales que se están desarrollando en la Unión Europea, Estados Unidos y Gran Bretaña”. Todos parten, según Bajarin, de una estimación realista “de lo que podría salir mal si no nos ceñimos a una serie de directrices y principios rectores muy estrictos que, en primer lugar, nos obligan a plantearnos si una tecnología de este tipo es realmente necesaria y si sus beneficios potenciales superan con claridad a sus posibles riesgos”. En Prosegur disponen de tecnologías para detectar automáticamente, en remoto, el uso de equipos de protección de los trabajadores en los entornos industriales: cascos, guantes, mascarillas… En Prosegur disponen de tecnologías para detectar automáticamente, en remoto, el uso de equipos de protección de los trabajadores en los entornos industriales: cascos, guantes, mascarillas… CEDIDA POR PROSEGUR / CÉSAR MANSO Para Daniel Bastida, Delegado de Protección de Datos de Prosegur, “antes de desarrollar cualquier sistema de inteligencia artificial, hay que plantearse si resulta necesario, proporcionado e idóneo”. Esos son los tres criterios básicos que aplica su compañía para garantizar que “todos nuestros procesos de innovación tecnológica partan en primer lugar de una reflexión ética”. Prosegur se está anticipando al nuevo marco legal que va a consolidarse en Europa y en España, desarrollando un reglamento interno y creando un comité específico de inteligencia artificial en el que estarán representados varios departamentos de la compañía, “de protección de datos e innovación a licencias, recursos humanos o el equipo jurídico”, según cuenta Bastida. En todos los casos, “será el juicio ético el que determine las reglas del juego”. Protección adecuada de datos sensibles Bastida pone un ejemplo práctico de los protocolos que está aplicando ya su compañía: “En nuestros procesos de análisis y entrenamiento de algoritmos estamos usando datos sintéticos para asegurarnos de que no se compromete la privacidad de las personas”. García Espinel explica el concepto: “Disponemos de tecnologías para detectar automáticamente el uso de equipos de protección personal, es decir, de los elementos que garantizan la seguridad de los trabajadores en entornos industriales: cascos, guantes, mascarillas… Para que las cámaras de videovigilancia inteligente reconozcan si todos los que acceden llevan el equipo completo y puesto correctamente, necesitamos entrenar a nuestros algoritmos de análisis cualitativo con imágenes de personas con o sin casco, con o sin guantes, con la mascarilla bien y mal puesta. Si hiciésemos uso de imágenes reales recogidas de manera aleatoria sin autorización, estaríamos vulnerando el derecho a la privacidad de las personas que aparecen en ellas. Así que hemos recurrido a un sistema de creación de imágenes sintéticas a partir de modelos 3D generados por ordenador”. Antes de desarrollar cualquier sistema de inteligencia artificial, hay que plantearse si resulta necesario, proporcionado e idóneo Daniel Bastida, delegado de Protección de Datos de Prosegur El responsable de innovación añade: “Algunos sistemas de inteligencia artificial requieren un número limitado de imágenes reales de partida, lo que llamamos datos semilla, por lo que en esos casos los generamos retratando a modelos que previamente han firmado un consentimiento informado”. Bastida añade que Prosegur se está tomando muy en serio la prohibición, consagrada en el Reglamento Europeo de Protección de Datos, de generar y conservar datos biométricos (huellas dactilares, reconocimiento facial, de voz, de retina, de manera de andar, de escritura en teclado…) salvo en circunstancias excepcionales que así lo requieran: “En sistemas de desbloqueo de alarma mediante contraseña y reconocimiento de voz, recogemos el dato biométrico, lo comparamos y lo eliminamos de inmediato. Y procedemos siempre con consentimiento explícito de los afectados”. Para García Espinel, “estos recursos tecnológicos suponen un incremento exponencial de la seguridad de los implicados. La videovigilancia con análisis inteligente de flujo de datos nos permite detectar cosas que sin ella no percibiríamos, es un potenciador extraordinariamente eficaz de las capacidades del vigilante”. No sustituye a la proximidad física ni la capacidad de intervención del ser humano “pero sí le permite disponer de un plan B y de un plan C al servicio del objetivo final, que es garantizar entornos seguros”. La guinda del pastel es, por supuesto, que a todas estas virtudes se añada un análisis riguroso de los posibles riesgos e implicaciones éticas. Hacia un humanismo tecnológico Para Iñaki Ortega, que además de académico es coautor del ensayo La buena tecnología, protocolos internos, manuales de responsabilidad corporativa y comités de ética van en la dirección adecuada: “Los profesionales de todo el mundo deben reconocer su responsabilidad compartida en el impacto de las tecnologías de la información”. Desde su punto de vista, “la buena tecnología ha sido uno de los grandes descubrimientos de la era de la pandemia”. Las innovaciones disponibles “son el presente y no deben alarmarnos”. Sin embargo, “es preocupante que un uso indebido de los grandes conjuntos de datos personales recolectados gracias a ella pueda lesionar la privacidad, la reputación e incluso la dignidad del ser humano”. Una vez más, hay que poner el acento en la responsabilidad que implica todo gran poder: “En esta línea, en mayo de 2019, varios académicos y tecnólogos publicaron el conocido como 'Manifiesto de Viena del Humanismo Digital'. En él apuestan por configurar las tecnologías de acuerdo con los valores y las necesidades humanas en lugar de permitir que sean las tecnologías basadas en intereses espurios las que den forma a los seres humanos”. Sobre la firma Miquel Echarri Miquel Echarri Ver biografía Archivado En Prosegur Inteligencia artificial Seguridad ciudadana Seguridad en el transporte Innovación Se adhiere a los criterios de The Trust Project Más información Si está interesado en licenciar este contenido contacte con ventacontenidos@prisamedia.com el tiempo guía tv cartelera juegos Crucigramas calculadoras sorteos Portada del día: El País Comprar ejemplar Archivo portadas newsletter Madrid Toda la información política, social y cultural de la comunidad. La mirada de nuestros reporteros de Local para acercarte la actualidad de otra manera Televisión Las novedades de canales y plataformas, con entrevistas, noticias y análisis, además de las recomendaciones y críticas de nuestros periodistas especializados Hemeroteca hemeroteca Descarga la APP: google play apple store Crucigramas Juegos Escaparate Descuentos Colecciones Escuela de Periodismo El País + Si quieres apoyar la elaboración de periodismo de calidad suscríbete ahora Ángela Chica, Leo Rivera, Francesc Ferrer y Laura Pau en la comedia 'La piel fina' ‘La piel fina’ en el Teatro Pavón La obra 'Prima Facie' será la primera producción del National Theatre que emitirá +Que Cine, la ventana de contenidos alternativos de Cine Yelmo. Disfruta de ‘Prima Facie’ en gran pantalla con +Que Cine Accede a las ventajas de ELPAIS © Ediciones EL PAÍS EL PAÍS realiza una reserva expresa de las reproducciones y usos de las obras y otras prestaciones accesibles desde este sitio web a medios de lectura mecánica u otros medios que resulten adecuados a tal fin de conformidad con el artículo 67.3 del Real Decreto - ley 24/2021, de 2 de noviembre ContactoAviso legalPolítica cookiesConfiguración de cookiesPolítica de privacidadMapaSuscripcionesSuscripciones para empresasRSSNewslettersÍndice de temas
¿Cuáles son los principales problemas éticos creados por la tecnología? ¿Cuáles son los principales problemas éticos creados por la tecnología? Respuesta: No es la tecnología la que crea problemas éticos, son los usuarios de la tecnología quienes los crean. La tecnología es buena porque se usa bien y causa daño cuando los humanos la utilizan para el mal. Siendo la tecnología para el hombre, llega a ser un problema ético poner al hombre al servicio de la tecnología. En el caso de la tecnología de las comunicaciones, esta ha de servir para intensificar y hacer más efectiva la relación entre las personas, pero hay un problema ético cuando esto no es así y en vez de comunicar, el medio incomunica. Así sucede con fenómenos universales como el de la brecha digital, o sea la separación que se ha creado entre los info-ricos y los info-pobres, unos con toda la posibilidad de acceso a las tecnologías de punta; otros sin oportunidad alguna de valerse de ellas. En lo individual el problema ético surge cuando los adelantos técnicos se usan para engañar, o estafar, o para invadir la intimidad ajena. En todos los casos, son las personas las que pervierten las aplicaciones de la tecnología. Las mismas personas pueden valerse de la tecnología para crecer éticamente. Internet, en efecto, permite un acercamiento a cada vez más personas, hecho que amplía el horizonte de descubrimiento del otro y las oportunidades para compartir conocimientos y sentimientos, brinda las facilidades para ampliar conocimientos merced a sus depósitos de datos y crea la coyuntura propicia para hacer reales las posibilidades de los seres humanos que, libres parcialmente de las ataduras del espacio y del tiempo, multiplican sus oportunidades de crecimiento personal. Cada una de estas ventajas plantea dilemas éticos: aprovecharlas o no aprovecharlas, de modo que se puede atribuir al desarrollo tecnológico la aparición de nuevos y apremiantes deberes éticos. Documentación Me parece altamente significativo que la tan discutida cuestión de si el hombre debe adaptarse a la máquina o la máquina debe ser adaptada a la naturaleza del hombre, no ha surgido nunca con respecto a los simples útiles y herramientas. Y la razón es que todas las herramientas del artificio permanecen siervas de la mano, mientras que las máquinas exigen de hecho que quien labora sirva, que adapte el ritmo natural de su cuerpo a su movimiento mecánico. En otras palabras, incluso en la herramienta más refinada existe una sierva incapaz de dirigir o de sustituir a la mano; incluso la máquina más primitiva guía y reemplaza idealmente la labor del cuerpo. La perplejidad del utilitarismo que constituye la filosofía del homo faber, es que queda atrapado en una interminable cadena de medios y fines sin llegar nunca a ningún principio que pueda justificar la categoría, es decir, la utilidad misma. La salida habitual de ese dilema es hacer del usuario, el propio hombre, el fin último para poder interrumpir la cadena interminable de medios y fines. Que el hombre es un fín en sí mismo y que nunca debe ser usado como medio para lograr otros fines, no importa cuán elevados puedan ser estos, es algo que conocemos bien gracias a la filosofía moral de Kant y no hay duda de que Kant quería ante todo relegar a la categoría de medio-fin junto con la filosofía utilitarista, al lugar que le correspondía e impedir que ésta pudiera regir las relaciones entre hombre y hombre, en vez de las relaciones entre hombres y cosas. Hannah Arendt: De la historia a la acción. Paidos, Barcelona, 1995. Pp 100,101 Tipo Consulta: Ética en la era digital Sobre el Consultorio ¿Qué es el Consultorio Ético? Responsables del Consultorio Ético Consultas más recientes Foto: Memento Media / Uso bajo licencia Unsplash Septiembre 19, 2024 ¿Puede la fuente exigir cortes o no autorizar el uso de sus declaraciones tras una entrevista? Septiembre 16, 2024 La trama de poder que esconde el enfrentamiento entre Elon Musk y la justicia de Brasil Septiembre 12, 2024 ¿Es posible cubrir los temas de justicia a mano propia de una forma más ética? Uso bajo licencia CC0 1.0Septiembre 5, 2024 ¿Cómo equilibrar la necesidad de informar sobre violencia de género con la ética de no dar voz al perpetrador? Foto: WBUR Socials en Flickr / Uso bajo licencia CC BY-NC-ND 2.0Agosto 29, 2024 ¿Es ético que un periodista trabaje para otros gremios sin contarle a su audiencia? Sobre nosotros Fundación Gabo Fundador Aliados Mapa del sitio Aviso legal Red de portales Tienda Centro Gabo Consultorio ético Festival Gabo Premio Roche Ética periodística Síguenos en Centro, calle San Juan de Dios #3-121 Cartagena de Indias, Colombia Tel: +57 (605)6517454 ©Fundación Gabo 2024 - Todos los derechos reservados.
TÍTULO AQUÍ
TÍTULO AQUÍ
03
01
SUBTÍTULO AQUÍ
SUBTÍTULO AQUÍ
Seres sociales. Necesitamos interactuar unos con otros. Aprendemos deforma colaborativa.
Contextualiza tu tema con un subtítulo
TÍTULO AQUÍ
TÍTULO AQUÍ
04
02
SUBTÍTULO AQUÍ
SUBTÍTULO AQUÍ
Seres digitales. Evitamos formar parte de la saturación de contenido en elmundo digital.
Seres narrativos. Contamos miles y miles de historias. ⅔ de nuestras conversaciones son historias.
20XX
Contar historias con orden y jerarquíaes fundamental.
Y que dejes a tu audiencia boquiabierta.
SUBTÍTULO AQUÍ
Contextualiza tu tema con un subtítulo
20XX
20XX
Los iconos siempre son buenos aliados.
SUBTÍTULO AQUÍ
SUBTÍTULO AQUÍ
Con esta función...
Con esta función...Puedes añadir un contenido adicional que emocione al cerebro de tu audiencia: vídeos, imágenes, enlaces, interactividad... ¡Lo que tú quieras!
Truquito:
La interactividad es la pieza clave para captar el interés y la atención de tu audiencia. Un genially es interactivo porque tu público explora y se relaciona con él.
¿Sabías que...
Retenemos un 42% más de información cuando el contenido se mueve? Es quizá el recurso más efectivo para captar la atención de tu audiencia.
XXXX
Puedes añadir un contenido adicional que emocione al cerebro de tu audiencia: vídeos, imágenes, enlaces, interactividad... ¡Lo que tú quieras!
Con esta función...
Puedes añadir un contenido adicional que emocione al cerebro de tu audiencia: vídeos, imágenes, enlaces, interactividad... ¡Lo quetú quieras!
XXXX
¿Sabías que... Retenemos un 42% más de información cuando el contenido se mueve? Es quizá el recurso más efectivo para captar la atención de tu audiencia.
¿Sabías que...
En Genially encontrarás más de 1.000 plantillas listas para volcar tu contenido y 100% personalizables, que te ayudarán a narrar tus historias?
XXXX
¡Ojo! En Genially utilizamos AI (Awesome Interactivity) en todos nuestros diseños, para que subas de nivel con interactividad y conviertas tu contenido en algo que aporta valor y engancha.
¿Sabías que...
En Genially encontrarás más de 1.000 plantillas listas para volcar tu contenido y 100% personalizables, que te ayudarán a narrar tus historias?
¿Sabías que...
La ventana permite añadir contenido más amplio. Puedes enriquecer tu genially incorporando PDFs, vídeos, texto… El contenido de la ventana aparecerá al hacer clic en el elemento interactivo.