sábado, 3 de outubro de 2009

Introduzir uma componente moral na inteligência artificial



Um investigador português e outro indonésio publicaram um paper no final de 2007 em que demonstraram que se pode fazer o desenho computorizado de decisões morais usando programas de lógica prospectiva, que se usam na modelação de dilemas morais na medida em que sejam capazes de um olhar prospectivo, em frente, sobre as consequências de hipotéticos julgamentos morais. Com o conhecimento dessas consequências, as regras morais utilizadas para decidir juízos morais apropriados. O raciocínio moral atinge-se através de constrangimentos a priori e preferências posteriores em modelos abdutivos estáveis, duas questões possíveis de obter numa programação lógica prospectiva.
No trabalho os dois autores modelam diferentes dilemas morais para solucionar o chamado “problema do eléctrico”, introduzido há quase cinquenta anos pelo filósofo inglês Philippa Foot e que envolve um eléctrico deslocando-se de forma descontrolada nas linhas onde estão amarradas cinco pessoas. Mas felizmente, podemos com um interruptor deslocar o eléctrico para outra via a cujas linhas está atada apenas uma pessoa. Você accionaria o interruptor? Para enfrentar este dilema os autores empregaram o princípio do efeito duplo como regra moral, e obtiveram as decisões morais adequadas.
Neste trabalho os autores partiram da constatação que a moralidade nos dias de hoje não é apenas questão de filósofos e que se tem procurado entendê-la num ponto de vista científico incluindo na com unidade da inteligência artificial onde se designa por ética da máquina, moralidade da máquina, moralidade artificial ou moralidade computacional.
Os cientistas do cognitivo, por exemplo, podem beneficiar muito da compreensão da interacção complexa de aspectos cognitivos que suportam a moralidade humana e também para obter os princípios morais que as pessoas aplicam normalmente quando defrontam dilemas. A modelação computorizada do raciocínio moral também pode ser útil em sistemas inteligentes tutorais por exemplo para ensinar a moralidade às crianças. Por outro lado, como cada vez mais se espera que os agentes artificiais sejam mais autónomos e trabalhem para nós, habilitar agentes com a capacidade de computorizar decisões morais é um requisito indispensável e, particularmente verdade quando os agentes operam em domínios onde ocorrem dilemas morais, como nos cuidados de saúde e no campo médico.
Desta forma, trabalha-se para que um dia as máquinas adquiram o sentido da moralidade, questão que não deixa de nos suscitar reflexões ou obras de arte sobre o risco de máquinas demoníacas controlarem um dia o nosso mundo e dominarem a humanidade, como aconteceu nos filmes “2001: odisseia no espaço” ou no “Terminator”.

Sem comentários: