Si buscas... encuentra

17 de enero de 2017

¿Existen leyes en la robótica?


Los robots han llegado para quedarse, no cabe duda, y necesitan de nosotros. Las personas los diseñaremos, construiremos, programaremos, repararemos, reprogramaremos... y, aunque hablemos de inteligencia artificial, los robots no tienen algo que a las personas nos permiten ser lo que somos: sentimientos. Esto nos diferencia y, probablemente, nos diferenciará siempre. Hasta ahora había creído que el pensamiento creativo también era propio del ser humano, aunque quizá sea algo que pueda explorarse en el ámbito de la robótica. Eso sí, desde lo que somos como personas, desde los robots creados por seres humanos.

Mi compi Roberto me contaba hace un tiempito sobre las 3 leyes de robótica de Isaac Asimov y la propuesta de la comisión de Asuntos Jurídicos del Parlamento Europeo no va muy lejos, aunque nos concreta 9 leyes diferentes.

Las tres leyes de Asimov son:

  1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
Por otro lado, el informe European Civil Law Rules in Robotics recoge las siguientes nueve leyes que busca que la Unión Europea unifique y armonice. Estas posibles normas no solo serán temas legales, sino que pretende ser una mirada ética para las empresas y personas que trabajan en el ámbito de la robótica:

  1. Protecting humans from harm caused by robots. Proteger a los seres humanos de los daños causados por robots.
  2. Respecting the refusal of care by a robot. Respetar el rechazo de una persona a ser cuidado por un robot. 
  3. Protecting human liberty in the face of robots. Proteger la libertad humana frente a la de los robots. 
  4. Protecting humanity against privacy breaches committed by a robot. Proteger a la humanidad contra las violaciones de privacidad cometidas por un robot. 
  5. Managing personal data processed by robots. Gestión de datos procesados por robots. 
  6. Protecting humanity against the risk of manipulation by robots. Proteger a la humanidad contra el riesgo de manipulación por robots. 
  7. Avoiding the dissolution of social ties. Evitar la disolución de los vínculos sociales. 
  8. Equal access to progress in robotics. Igualdad de acceso al progreso en robótica.
  9. Restricting human access to enhancement technologies. Restringir el acceso humano a las tecnologías de mejora.
De manera más concreta, en palabras de Eduardo Álvarez en TICbeat se puede hablar de...
  • Todo robot debe tener un interruptor de desactivación de emergencia.
  • Ningún robot podrá hacer daño a un ser humano.
  • Prohibido crear vínculos emocionales con ellos.
  • Seguro obligatorio para grandes robots.
  • Los robots tendrán derechos y obligaciones.
Sin duda mucho por hacer en este campo y en otros muchos como, por ejemplo, la identidad digital. ¿Tendrán identidad digital los robots? ¿qué ocurre con los datos que estudian y generan? ¿conversarán en línea como cualquier persona? ¿la suplantarán o actuarán como un ente independiente? ¿quién conocerá esa identidad digital para asegurarse de que todas las leyes se cumplan?

Todo esto, además, deberá se llevado al ámbito educativo, tanto en los materiales de las aulas como en el aprendizaje con robots y el sobre robótica. Esta semana, en mi colaboración en Diario de Navarra, narro alguna de las novedades que han llegado en el CES de Las Vegas y que también deben ser tenidas en cuenta en el espacio educativo y, por supuesto, con robots.



¿Puedes aportar una mejora o sugerencia? Comenta en este blog, en @dianagonzalez o en cualquiera de los canales sociales :). 

No hay comentarios:

Publicar un comentario

Gracias por comentar :)