martes, 4 de marzo de 2008

NOTICIAS: "AVANCES TECNOLOGICOS"

"Revista Noticias". - Año XXIINº 1586 del 19-05-2007
Publicación semanal de Editorial Perfil.

Análisis : "Una ética para los robots"
Si el objetivo principal de una máquina inteligente autónoma fuera satisfacer su propia supervivencia, sería peligroso en extremo.

En su libro "Yo, robot", de 1950, Isaac Asimov planteaba tres leyes sobre el comportamiento de un robot: 1) No puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño; 2) Debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley; 3) Debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.Lo que entonces parecía ciencia ficción no lo es tanto. Recientemente, un equipo internacional de científicos y académicos de la EURON (EUropean RObotics research Network) elaboró un prototipo de "código de ética robótica". Se trata de un conjunto de reglas establecidas con el objetivo global de guiar el comportamiento de los robots hacia lo que se considera adecuado y deseable, y evitar lo que se considera inadecuado e indeseable.Para analizar la relación entre ética y tecnología, uno de los aspectos que se pueden considerar es el uso responsable e irresponsable que algunas personas hacen de los objetos tecnológicos. Lo que preocupa no es tanto la tecnología en sí misma, sino la utilización que se puede hacer de ella. Lo que provoca miedo es la velocidad e imprevisibilidad de su avance y, en especial, la posibilidad de que se vuelva incontrolable. La tecnología es neutra: multiplica las posibilidades humanas tanto para hacer el bien como para hacer el mal. Pero definitivamente no son neutros los impactos que tiene sobre la vida de los individuos y las sociedades. La energía atómica permite tanto construir centrales eléctricas para dar luz y calor a grandes ciudades, como la posibilidad de construir bombas que destruyan esas mismas ciudades. Y es también el caso del robot inteligente y autónomo: si su objetivo principal fuese el de satisfacer al hombre, sería de valiosa ayuda. Pero si su objetivo principal fuese el de satisfacer su propia supervivencia, sería peligroso en extremo. Por eso, todo avance es percibido de forma ambivalente: como sublime y, a la vez, nefasto. Esto no hace más que revelar las contradicciones intrínsecas de una sociedad escindida entre tecnófilos y tecnófobos, entre quienes se ufanan por los beneficios que puede brindar el poder tecnológico y los que temen al daño irreparable que puede acarrear su utilización descontrolada. Lo cierto es que ya no se puede revertir el inevitable proceso de aceleración tecnológica. Pero es responsabilidad del homo sapiens ser mucho más crítico con respecto a lo que hace y por qué lo hace. Sólo así podrá –en parte– prever algunas de las consecuencias indeseadas. Cuanto más amplio es su poder, mayor debe ser su sentido de la responsabilidad. En la ética para los robots, se pueden distinguir dos niveles: la "humana" y la "artificial" propiamente dicha. La función de la primera es la de restringir quién debe construir y quién debe utilizar este tipo de máquinas. El segundo nivel de la ética de los robots, la artificial o "roboética", se ocupa de los problemas relacionados con los robots y con su interacción con el hombre, los animales, la sociedad, la naturaleza y el mundo. Se trata de un nuevo campo de estudio que considera a las máquinas, computadoras y robots como un tipo de agentes éticos e intenta implementar en ellos facultades morales de toma de decisiones. La idea es otorgarles un determinado conjunto de reglas o guías de comportamiento universal, un "código de ética", a medida que se vayan haciendo cada vez más complejas, a fin de que sus acciones no se aparten mucho de la normas humanas (ya que se tornaría imposible controlarlos). Hasta hoy, sólo el ser humano se había comprometido a un razonamiento ético. Ya es tiempo de incorporarle una dimensión ética a algunas máquinas complejas.Ese enfoque se sustenta en el hecho de que existen casos de otras clases de agentes éticos. Por ejemplo, los perros tienen un sentido de lo que es correcto y lo que es incorrecto. Incluso, los niños son una forma distinta de agente ético: tienen limitados derechos y responsabilidades, y los adultos tienen deberes para con ellos. Es más, hay una variación continua de agente ético que va desde el bebé hasta el adolescente. Sin embargo, la mayoría de las personas establece una frontera divisoria para la ética entre lo que considera conciente y lo que considera no-conciente. Por ejemplo, si se piensa que una serpiente no es conciente, no se harán muchos cuestionamientos en caso de tener que matarla. De igual manera, si se piensa que una máquina no tiene conciencia, se tendrá mucho menos escrúpulo en lastimarla.Por lo pronto, el prototipo de código de ética de EURON preconiza: asegurarse el control de los humanos sobre los robots; prevenir su utilización nociva o ilegal; proteger los datos obtenidos por los robots; rastrear y grabar la actividad de los robots; brindar una identificación única a cada robot.Tecnofílicos y tecnofóbicos coinciden en que violar ese código podría ser lo último que terminemos haciendo como especie. l
Por Sergio Moriello, Ingeniero electrónico y magíster en sistemas. Lidera el grupo GDAIA de agentes inteligentes autónomos en la UTN, Facultad Regional Buenos Aires. sergiomoriello@hotmail.com

No hay comentarios: