Cuando Aristóteles fundó la “ética» hace más de 2.300 años, esta nueva disciplina filosófica que estudiaba el bien y el mal y sus relaciones con la moral y el comportamiento humano, quizás no se podía imaginar que iba a provocar que el Gigante Google, una de las cuatro empresas que tienen un billón de dólares de capitalización bursátil, iba a temblar durante meses.
La ética es un pilar de la sociedad, y así se lo trasladaron los empleados de Google a su directiva, no querían ni quieren participar en programas donde sus desarrollos en Inteligencia Artificial traspasen las líneas marcadas por Aristóteles en su Grecia natal.
3.100 empleados lucharon contra sus jefes, para que su empresa no mantuviera el contrato de colaboración con el Pentágono de Estados Unidos, unos desarrollos que a la larga convertirían el Projecto Maven, en una herramienta perfecta de Inteligencia Artificial, que permitiría a los drones, actuar de forma independiente en el campo de batalla.
Los empleados iniciaban la carta con un mensaje claro «Creemos que Google no debería estar en el negocio de la guerra», pero según va dando paso cada párrafo, se acercan más a la ética en un aspecto general, exigiendo que la compañía “aplique una política clara que establezca que ni Google ni sus contratistas construirán nunca una tecnología de guerra».
El movimiento obligo al gigante americano a dar un paso atrás, y no continuar con el desarrollo, más allá de la finalización de su contrato. La necesidad de aplicar la ética empresarial en los nuevos proyectos de Inteligencia Artificial no es exclusiva de esta compañía, son muchas las empresas que tienen contratos gubernamentales para sus tecnologías de reconocimiento facial y procesado de información, que deben de analizar si los pasos que dan, están a favor de un mundo mejor.
Esta necesidad de una ética generalizada se hace más importante en la medida en que avanza el desarrollo de bots, robots y androides, en la medida que crece su autonomía y en consecuencia, se irán independizando del control de sus fabricantes y usuarios.
En una sociedad donde la convivencia entre IA y humanos es cada día un hecho, las empresas han de ir alineadas con el sentir de la sociedad y dentro de un marco jurídico que delimite de quien es la responsabilidad de los actos u omisiones de los robots inteligentes, se debe definir si su desarrollo también tiene derechos y obligaciones, o los pasos que hay que dar para que la tecnología no se vea como una amenaza sino como una oportunidad.
Para muchos la respuesta puede estar en una regulación para la existencia de una sociedad más segura y pacífica, aunque es posiblemente mediante una conducta ética intachable donde las empresas tienen la llave para acercarnos al concepto de “humanidad” en el que todos queremos participar.