Los robots ganan cada vez más peso en el mundo, y hasta en las guerras. Según indicó el experto británico en robótica Noel Sharkey, la utilización de robots autónomos en conflictos armados es cada vez más frecuente.
Por esto, los soldados quieren más robots autónomos lo antes posible, para así evitarse ir al frente, además de que son más económicos y permiten una guerra sin riesgos, según informa AFP. No se puede equiparar todavía con el número de soldados pero, "en la actualidad hay más de 4.000 robots desplegados en Irak", según un comunicado de la Universidad de Sheffield de la que depende el profesor Sharkey.
De hecho, la proporción de soldados con relación al número de robots desplegados en terreno de operaciones militares podría invertirse en 10 años y pasar a 2.000 robots por 150 soldados, según el consultor americano de innovaciones tecnológicas James Canton.
De hecho, según informa ABC News, el año pasado, el Departamento de Defensa de Estados Unidos preveía gastar para 2010 unos 4.000 millones de dólares en armas robóticas, un gasto que al final acabará aumentando hasta los 24.000 millones de dólares, según la 'Guía de sistemas no tripulados' publicada por el Departamento de Defensa.
Y cuanto más peso tienen, más cuestiones y dudas se plantean a su alrededor. En la actualidad, los expertos se preguntan qué decisiones pueden tomar los robots y qué se puede hacer cuando uno de ellos pierde el control. Por ahora, la legislación americana todavía prohíbe a estas máquinas tomar una decisión tan importante como la de lanzar una bomba.
Sharkey añade más leña al debate: "El principal problema es que, según las leyes de la guerra, hay que hallarse en situación de distinguir entre paisanos y combatientes y no pienso que los robots se hallen en situación de hacerlo". " Otro problema es que es muy difícil para un robot dar una respuesta proporcionada, lo que es una de las cláusulas del convenio de Ginebra ", añade.
Sistemas más autónomos
Pero, según ABC News, el Pentágono lleva alrededor de dos años desarrollando programas de investigación para conseguir robots que tengan la capacidad de identificar posibles amenazas sin ningún tipo de ayuda humana.
El experto británico va un paso más allá, y piensa que se implantarán poco a poco, "no será de golpe". Sharkey pide a los gobiernos que se tomen un momento para pensar lo que están haciendo. De hecho, espera que los estados firmen un 'acuerdo internacional' sobre la cuestión para evitar encontrarse sobrepasados por la situación.
Ronald Arkin, investigador de robótica en la Georgia Tech University, en declaraciones recogidas por ABC News, está de acuerdo en que hay que discutir el papel de los robots y todo lo que lo rodea, y sugiere que se diseñen robots con sistemas de control ético que respeten las normas del convenio de Ginebra.
Cuestiones morales
A largo plazo, también se están planteando resolver las cuestiones morales en los robots, vinculadas a la utilización de armas, ya que los en seres humanos pueden interferir emociones como la cólera o el odio. Por ello, el ejército estadounidense está investigando la posibilidad de incluir inteligencia artificial en los robots, para dotarlos de una 'conciencia'.
Arkin se pone, en parte, de lado de los robots, en el sentido de que los robots son muy exactos, no fallan, por lo que "se puede estar seguro de que ellos nunca tendrán la intención de herir a un civil, alguien no combatiente". "Lo harían mejor que los humanos", añade.
El investigador también explica que sería fundamental poder dotar a los robots de la capacidad para desobedecer las órdenes de los superiores y que les expliquen el porqué.
Aunque advierte de que los robots no pueden ser tan inteligentes y hábiles como los humanos en el campo de batalla. "No podemos hacer que sean tan inteligentes, serán utilizados para situaciones especiales" que requieran de sus habilidades, concluye.
Por esto, los soldados quieren más robots autónomos lo antes posible, para así evitarse ir al frente, además de que son más económicos y permiten una guerra sin riesgos, según informa AFP. No se puede equiparar todavía con el número de soldados pero, "en la actualidad hay más de 4.000 robots desplegados en Irak", según un comunicado de la Universidad de Sheffield de la que depende el profesor Sharkey.
De hecho, la proporción de soldados con relación al número de robots desplegados en terreno de operaciones militares podría invertirse en 10 años y pasar a 2.000 robots por 150 soldados, según el consultor americano de innovaciones tecnológicas James Canton.
De hecho, según informa ABC News, el año pasado, el Departamento de Defensa de Estados Unidos preveía gastar para 2010 unos 4.000 millones de dólares en armas robóticas, un gasto que al final acabará aumentando hasta los 24.000 millones de dólares, según la 'Guía de sistemas no tripulados' publicada por el Departamento de Defensa.
Y cuanto más peso tienen, más cuestiones y dudas se plantean a su alrededor. En la actualidad, los expertos se preguntan qué decisiones pueden tomar los robots y qué se puede hacer cuando uno de ellos pierde el control. Por ahora, la legislación americana todavía prohíbe a estas máquinas tomar una decisión tan importante como la de lanzar una bomba.
Sharkey añade más leña al debate: "El principal problema es que, según las leyes de la guerra, hay que hallarse en situación de distinguir entre paisanos y combatientes y no pienso que los robots se hallen en situación de hacerlo". " Otro problema es que es muy difícil para un robot dar una respuesta proporcionada, lo que es una de las cláusulas del convenio de Ginebra ", añade.
Sistemas más autónomos
Pero, según ABC News, el Pentágono lleva alrededor de dos años desarrollando programas de investigación para conseguir robots que tengan la capacidad de identificar posibles amenazas sin ningún tipo de ayuda humana.
El experto británico va un paso más allá, y piensa que se implantarán poco a poco, "no será de golpe". Sharkey pide a los gobiernos que se tomen un momento para pensar lo que están haciendo. De hecho, espera que los estados firmen un 'acuerdo internacional' sobre la cuestión para evitar encontrarse sobrepasados por la situación.
Ronald Arkin, investigador de robótica en la Georgia Tech University, en declaraciones recogidas por ABC News, está de acuerdo en que hay que discutir el papel de los robots y todo lo que lo rodea, y sugiere que se diseñen robots con sistemas de control ético que respeten las normas del convenio de Ginebra.
Cuestiones morales
A largo plazo, también se están planteando resolver las cuestiones morales en los robots, vinculadas a la utilización de armas, ya que los en seres humanos pueden interferir emociones como la cólera o el odio. Por ello, el ejército estadounidense está investigando la posibilidad de incluir inteligencia artificial en los robots, para dotarlos de una 'conciencia'.
Arkin se pone, en parte, de lado de los robots, en el sentido de que los robots son muy exactos, no fallan, por lo que "se puede estar seguro de que ellos nunca tendrán la intención de herir a un civil, alguien no combatiente". "Lo harían mejor que los humanos", añade.
El investigador también explica que sería fundamental poder dotar a los robots de la capacidad para desobedecer las órdenes de los superiores y que les expliquen el porqué.
Aunque advierte de que los robots no pueden ser tan inteligentes y hábiles como los humanos en el campo de batalla. "No podemos hacer que sean tan inteligentes, serán utilizados para situaciones especiales" que requieran de sus habilidades, concluye.
No hay comentarios:
Publicar un comentario