Página 1 de 2

Moralidade Artificial - Impossivel?

Enviado: 16 Out 2014 12:38
por armlock
Inteligencia Moralidade Artificial

Lembro que houve ja muita discussao entre os foristas sobre a possibilidade de quantificar e algoritmizar moralidade humana, ja que um grupo de foristas (eu me incluo, Alltheway e outros) encherga moralidade como um produto de treinamento do neural network cerebral + componente genetico, e embora ainda mal definido, talvez redutivel e reprodutivel. Confesso que pelo menos do meu lado, essa visao se da pela minha tendencia de programador a algoritmizar tudo...

Bom, aparentemente mais pessoas tem essa visao. O U.S. Navy’s Office of Naval Research esta subsidiando pesquisa at Tufts e Brown universities e Rensselaer Polytechnic Institute (RPI) para desenvolver robos capazes de raciocinio moral. Cada uma destas universidades ja tinham linhas de pesquisas no assunto.

Os passos/desafios filosoficos do projeto na tentativa de destrinchar o que compoe a moralidade humana estao listados nesse artigo (ingles) abaixo, cujo autor, o diretor do Departamento de Ciencias Cognitivas de RPI ainda tem duvidas sobre a sua capacidade de sucesso no projeto.

http://www.roughtype.com/?p=4568

Independente do resultado, eu acho muito valido a tentativa de estruturar e organizar os elementos que ditam o que chamamos de comportamento moral. Imagino que somente um esforco deste tipo venha a clarificar e desmembrar os processos cognitivos usados pelos humanos no exercicio de julgar.

Mais artigos sobre o assunto:

http://www.timesunion.com/business/arti ... 569624.php

http://now.tufts.edu/news-releases/teac ... ight-wrong

Re: Moralidade Artificial - Impossivel?

Enviado: 16 Out 2014 13:04
por codematrixbr
Devido a minha inábil capacidade de aprendizagem sobre novos temas, irei me abster de tecer um comentário, porém e um assunto que desejo muito acompanhar, espero que foristas com um intelecto mais completo que o meu, participem ativamente deste tópico.
Abraços.

Re: Moralidade Artificial - Impossivel?

Enviado: 16 Out 2014 13:17
por Vinicius SC
Eu, do alto da minha completa ignorância no assunto, não acredito ser possível.

Para mim, a moral e a ética são conceitos exclusivamente humanos, ligados à nossa cultura, conhecimentos, experiências e até mesmo ao nosso aspecto físico.

Re: Moralidade Artificial - Impossivel?

Enviado: 16 Out 2014 13:55
por Boxing
Sou programador também e prefiro acreditar que eles não vão conseguir! É o tipo de pesquisa que se der certo, faz com que cada vez mais seja difícil acreditar que não somos somente um amontoado de células organizadas que deu sorte de ter consciência e por isso achamos que somos especiais! hehehe

Re: Moralidade Artificial - Impossivel?

Enviado: 16 Out 2014 14:07
por armlock
Boxing escreveu:Sou programador também e prefiro acreditar que eles não vão conseguir! É o tipo de pesquisa que se der certo, faz com que cada vez mais seja difícil acreditar que não somos somente um amontoado de células organizadas que deu sorte de ter consciência e por isso achamos que somos especiais! hehehe

Cada vez mais experiencias mostram que decisoes sao um processo automatico ditado por "input"=dados conhecidos pelo cerebro no momento da decisao + "processador"= neural net com as sinopses formadas naquele momento, com o qual a consciencia tem pouco a ver.

Na verdade a consciencia parece ser um post processador, que pega a decisao tomada pelo cerebro de forma inconsciente, checa qual foi e age/executa acoes com base nela.

Cheque o video abaixo. Eh antigo. Estava lendo um artigo interessante deste ano, mas tenho que lembrar onde foi... se achar eu post.



O maior desafio eh similar aos problemas originais enfrentados por "expert systems" ou seja, como codificar conhecimento de forma eficiente (rule based? Decision Tree based? Fuzzy Logic?, etc). No caso, como codificar moral de forma eficiente.



ps: Achei um dos papers (ingles) mas nao o mais recente: http://www.psych.unimelb.edu.au/sites/l ... PNAS13.pdf

Uma das dificuldades em monitorar o cerebro para fazer computer predictions em decisoes muito complexas eh justamente o paralelismo do sistema. E tentar criar um modelo para associar uma sequencia previamente desconhecida de padroes de eventos cerebrais que ocorrem em antecedencia a uma decisao complexa.

Re: Moralidade Artificial - Impossivel?

Enviado: 16 Out 2014 14:31
por Holden
Não entendo muito do assunto, mas acho que é possível sim. Não necessariamente uma "moral" própria mas algoritimizar conceitos morais de modo que se tome decisões mecânicas baseados nesses conceitos através da racionalidade e da lógica acho bem possível, o critério moral inicial eu acho que ainda seria do programador mas não necessariamente o resultado.

Inclusive acho que a gente devia era usar maquinas pra governar/julgar, me parece muito errado depender do julgamento de humanos com toda sua propensão a utilizar sua emoção em decisões que deveriam ser apenas racionais. Mas conhecendo a humanidade acho que o mais perto que chegaremos disso é com uns ED-209 metendo pipoco nas ruas.

Re: Moralidade Artificial - Impossivel?

Enviado: 16 Out 2014 14:32
por Marcial
Vinicius SC escreveu:Eu, do alto da minha completa ignorância no assunto, não acredito ser possível.

Para mim, a moral e a ética são conceitos exclusivamente humanos, ligados à nossa cultura, conhecimentos, experiências e até mesmo ao nosso aspecto físico.
Também admitindo minhas limitações, assim como o colega, acredito que um algoritmo não pode recriar plenamente a moralidade humana.
No máximo, acho que poderia emular a moralidade de alguém ou de algum grupo, mas jamais teria acesso intuitivo ao julgamento moral real.
Para mim, trata-se do mesmo problema da consciência, que eu acredito - na linha de Roger Penrose - seguir um padrão não-computável.

Re: Moralidade Artificial - Impossivel?

Enviado: 16 Out 2014 14:46
por Marcial
armlock escreveu: Cada vez mais experiencias mostram que decisoes sao um processo automatico ditado por "input"=dados conhecidos pelo cerebro no momento da decisao + "processador"= neural net com as sinopses formadas naquele momento, com o qual a consciencia tem pouco a ver.

Na verdade a consciencia parece ser um post processador, que pega a decisao tomada pelo cerebro de forma inconsciente, checa qual foi e age/executa acoes com base nela.

Cheque o video abaixo. Eh antigo. Estava lendo um artigo interessante deste ano, mas tenho que lembrar onde foi... se achar eu post.

O maior desafio eh similar aos problemas originais enfrentados por "expert systems" ou seja, como codificar conhecimento de forma eficiente (rule based? Decision Tree based? Fuzzy Logic?, etc). No caso, como codificar moral de forma eficiente.

ps: Achei um dos papers (ingles) mas nao o mais recente: http://www.psych.unimelb.edu.au/sites/l" onclick="window.open(this.href);return false; ... PNAS13.pdf

Uma das dificuldades em monitorar o cerebro para fazer computer predictions em decisoes muito complexas eh justamente o paralelismo do sistema. E tentar criar um modelo para associar uma sequencia previamente desconhecida de padroes de eventos cerebrais que ocorrem em antecedencia a uma decisao complexa.
Boas referências, Armlock. Quando puder, vou assistir ao vídeo e ler os papers.
Pelo que você diz, parece que as pesquisas 'confirmam' a filosofia de Spinoza...
Não haveria livre-arbítrio, mas as pré-determinações da Substância, ou Deus.
Confesso que tenho muita dificuldade de compreender esta linha de raciocínio.
Não vejo como a consciência pode ser 'post', se é pré-condição para a razão.
Em outras palavras, vejo a consciência como um tipo de 'sistema operacional'.
Ela definiria inclusive a forma como os 'inputs' são processados pela rede neural...
Mas é só impressão de um curioso sobre o assunto, leigo demais para ter certeza :)

Re: Moralidade Artificial - Impossivel?

Enviado: 16 Out 2014 14:48
por armlock
Marcial escreveu:
Também admitindo minhas limitações, assim como o colega, acredito que um algoritmo não pode recriar plenamente a moralidade humana.
No máximo, acho que poderia emular a moralidade de alguém ou de algum grupo, mas jamais teria acesso intuitivo ao julgamento moral real.
Para mim, trata-se do mesmo problema da consciência, que eu acredito - na linha de Roger Penrose - seguir um padrão não-computável.

Pelo menos falando pelo meu post original, quando nele me refiro a moralidade humana, quero dizer moralidade gerada por cerebros humanos, e nao que haja *uma* moralidade unica fundamental na raca humana. Creio que moralidade seja sempre algo individual, pricipamente por depender do componente genetico, que define seu cerebro (embora no seu processo formativo, um dos componentes provenha do comportamento social do grupo ao qual o individuo pertence)

Re: Moralidade Artificial - Impossivel?

Enviado: 16 Out 2014 15:10
por xicao
O dia que isso acontecer, estaremos perto da singularidade. Tinha um projeto que estavam tentando simular o cerebro humano e ficaram restrito a tecnologia atual. vou procurar o video e posto aqui.

http://www.itproportal.com/2014/01/13/s ... -activity/" onclick="window.open(this.href);return false;

Re: Moralidade Artificial - Impossivel?

Enviado: 16 Out 2014 15:55
por Marcial
armlock escreveu:

Pelo menos falando pelo meu post original, quando nele me refiro a moralidade humana, quero dizer moralidade gerada por cerebros humanos, e nao que haja *uma* moralidade unica fundamental na raca humana. Creio que moralidade seja sempre algo individual, pricipamente por depender do componente genetico, que define seu cerebro (embora no seu processo formativo, um dos componentes provenha do comportamento social do grupo ao qual o individuo pertence)
Entendi... Reformulando, então acho plenamente possível que uma máquina opere um algoritmo que emule uma moralidade 'do tipo' humano.
Uma moralidade 'prática', não amparada pela consciência de si, do tipo que o David Chalmers (?) usava no seu exemplo da 'consciência zumbi'.
Acho que o problema de fundo continuaria, pois eu fico me perguntando se uma ferramenta desse tipo teria aplicações consideradas legítimas.
Afinal, uma decisão, irrefletida ou não, errada ou não, é suportada (ou pelo menos deveria ser, em tese), pela atribuição de responsabilidade.
Ou seja, as pessoas podem ser responsabilizadas pelos erros que cometem. E se um erro for cometido pelo julgamento 'moral' de uma máquina?
E se uma 'máquina moral' fosse hackeada, ou apresentasse um bug? Quem pagaria o preço? Sei lá, acho que não estamos preparados pra isso :)

Re: Moralidade Artificial - Impossivel?

Enviado: 16 Out 2014 16:08
por Vinicius SC
Marcial escreveu: Entendi... Reformulando, então acho plenamente possível que uma máquina opere um algoritmo que emule uma moralidade 'do tipo' humano.
Mas nesse caso, não seria uma inteligência artificial de verdade seria? Afinal, seria apenas uma máquina aplicando um algoritmo pré-determinado.

Re: Moralidade Artificial - Impossivel?

Enviado: 16 Out 2014 16:16
por Holden
Vinicius SC escreveu: Mas nesse caso, não seria uma inteligência artificial de verdade seria? Afinal, seria apenas uma máquina aplicando um algoritmo pré-determinado.
Não necessariamente, acho que nesse caso basicamente o algorítimo serviria para "ensinar a aprender" a moralidade mas não a determinaria completamente.

http://en.wikipedia.org/wiki/Artificial_neural_network.

Re: Moralidade Artificial - Impossivel?

Enviado: 16 Out 2014 16:42
por Marcial
Vinicius SC escreveu: Mas nesse caso, não seria uma inteligência artificial de verdade seria? Afinal, seria apenas uma máquina aplicando um algoritmo pré-determinado.
Nesse caso, não. Mesmo que o algoritmo pudesse 'aprender', como disse outro colega, seria um aprendizado pré-determinado, não intuitivo.
Acredito que alguns atributos da inteligência, como a criatividade, dependem da intuição, que por sua vez derivariam da consciência de si.
A máquina pode passar no teste de Turing, emular julgamento moral e até simular emoções, mas sem autoconsciência, não passa de um zumbi :)

Re: Moralidade Artificial - Impossivel?

Enviado: 16 Out 2014 17:25
por SALINHO
armlock escreveu:Inteligencia Moralidade Artificial

Lembro que houve ja muita discussao entre os foristas sobre a possibilidade de quantificar e algoritmizar moralidade humana, ja que um grupo de foristas (eu me incluo, Alltheway e outros) encherga moralidade como um produto de treinamento do neural network cerebral + componente genetico, e embora ainda mal definido, talvez redutivel e reprodutivel. Confesso que pelo menos do meu lado, essa visao se da pela minha tendencia de programador a algoritmizar tudo...
Eu sempre percebi isso Armlock. E eu sempre discordei de ti nesse ponto.

O problema maior que eu acho é questão do inconsciente.
Eu nem acho que isso seria de todo impossível, mas teria que ser descoberto um novo método, um novo caminho. O simples acúmulo de capacidade de processamento não seria o meio eficaz pra emular uma experiência de criação humana, a subjetividade envolvida, etc.