domingo, 1 de janeiro de 2017


Robôs Assassinos

 

                            Michio Kaku diz em seu livro Visões do Futuro (como a ciência revolucionará o século XXI), São Paulo, Rocco, 2001, p. 164: “Os escritores de ficção científica, como Isaac Asimov, tentaram desconsiderar a capacidade dos robôs de assassinar seus senhores humanos mediante a codificação de três ‘leis’ da robótica a serem diretamente introduzidas no programa dessas máquinas. São elas: 1) Um robô não pode prejudicar um ser humano ou, por inação, permitir que um ser humano sofra algum dano. 2) Um robô deve obedecer às ordens que lhe são dadas por seres humanos, exceto quando tais ordens conflitarem com a Primeira Lei. 3) Um robô deve proteger sua própria existência, contanto que tal proteção não entre em conflito com a Primeira ou com a Segunda Lei”.

                            A par dos argumentos de Kaku, há a ilogicidade das “leis” de Asimov, que podemos mostrar de passagem, antes de nos dirigirmos ao argumento principal e definitivo.

                            Suponha que um robô defenda um ser humano qualquer, A, contra outro, B, evitando que o primeiro morra, mas com seu ato causando a morte do segundo. Se A e B estão em oposição total, por definição, defender A é causar a morte de B. Então há um choque inultrapassável, um loop, um laço, uma petição de princípio, uma volta que consumirá os circuitos de lógica.

                            Imagine que outro robô defenda um ser humano, um assassino, impedindo que (onde exista a pena de morte, o que é deplorável) seja morto pelo Estado; e que esse assassino, saindo dali, cause a morte de outros – a inação não teria implicado em danos a outros seres humanos? Pior, pense nele recebendo a ordem direta de um carcereiro, que pela segunda lei ele deve obedecer, causando mal (mas sem o saber de imediato), o que é vetado pela primeira lei. E assim por diante, existem inúmeras falhas possíveis, que a gente nunca investiga, pois deveria parar de ler a fantasia tecnológica, dita FC.

                            O argumento definitivo é este: existindo o par polar oposto/complementar morte/vida, é seguro dizer que todos os seres novos (robôs, computadores inteligentes, ciborgues, andróides e os seres expandidos: macacos, golfinhos, baleias, elefantes e seres humanos) matarão. Aliás, devemos pensar que há dois lados no dicionário, o lado ruim e o lado bom, e os novos seres todos transitarão por ambos. Existirão delegacias para cada um deles, com detetives de todos os tipos de novas memorintenligências. É fatal, até rende novas linhas de construção de FC. E não adianta preparar qualquer defesa prévia, PORQUE ser inteligente é ser solucionador de problemas. O núcleo de uma definição útil de inteligência seria esse.

                            Vitória, quarta-feira, 16 de outubro de 2002.

Nenhum comentário:

Postar um comentário