IA: Conferência de Asilomar no ano de 2017.

Os princípios desenvolvidos em conjunto com a conferência Asilomar 2017 têm como objetivo garantir o desenvolvimento da inteligência artificial (IA) de forma segura, ética e responsável. Esses princípios abrangem questões como financiamento de pesquisa, vínculo entre ciência e política, ética e valores, problemas de longo prazo e outras questões relacionadas à IA. A aplicação desses princípios pode ajudar a promover a segurança, transparência e responsabilidade na IA, bem como evitar corridas e riscos desnecessários.

Referência bibliográfica: Asilomar AI Principles. (2017). Future of Life Institute. Disponível em: https://futureoflife.org/ai-principles/

Estes princípios foram desenvolvidos em conjunto com a conferência Asilomar 2017 ( vídeos aqui ), através do processo aqui descrito .

Clique aqui para ver esta página em outros idiomas:  Chinês Alemão Japonês Coreano Russo              

A inteligência artificial já forneceu ferramentas benéficas que são usadas todos os dias por pessoas em todo o mundo. Seu desenvolvimento contínuo, guiado pelos seguintes princípios, oferecerá oportunidades incríveis para ajudar e capacitar as pessoas nas próximas décadas e séculos.

Questões de pesquisa

1) Objetivo da pesquisa: O objetivo da pesquisa de IA deve ser criar não inteligência não direcionada, mas inteligência benéfica.

2) Financiamento de Pesquisa: Os investimentos em IA devem ser acompanhados de financiamento para pesquisas que garantam seu uso benéfico, incluindo questões espinhosas em ciência da computação, economia, direito, ética e estudos sociais, como:

  • Como podemos tornar os futuros sistemas de IA altamente robustos, para que eles façam o que queremos sem funcionar mal ou serem hackeados?
  • Como podemos aumentar nossa prosperidade por meio da automação, mantendo os recursos e o propósito das pessoas?
  • Como podemos atualizar nossos sistemas jurídicos para serem mais justos e eficientes, acompanhar o ritmo da IA ​​e gerenciar os riscos associados à IA?
  • Com qual conjunto de valores a IA deve estar alinhada e qual status legal e ético ela deve ter?

3) Vínculo Ciência-Política: Deve haver um intercâmbio construtivo e saudável entre pesquisadores de IA e formuladores de políticas.

4) Cultura de Pesquisa: Uma cultura de cooperação, confiança e transparência deve ser fomentada entre pesquisadores e desenvolvedores de IA.

5) Evitar corridas: as equipes que desenvolvem sistemas de IA devem cooperar ativamente para evitar cortes nos padrões de segurança.

Éticas e valores

6) Segurança: os sistemas de IA devem ser seguros e protegidos durante toda a sua vida operacional, e de forma verificável quando aplicável e viável.

7) Transparência de falha: se um sistema de IA causar danos, deve ser possível determinar o motivo.

8) Transparência Judicial: Qualquer envolvimento de um sistema autônomo na tomada de decisão judicial deve fornecer uma explicação satisfatória auditável por uma autoridade humana competente.

9) Responsabilidade: Designers e construtores de sistemas avançados de IA são partes interessadas nas implicações morais de seu uso, mau uso e ações, com responsabilidade e oportunidade de moldar essas implicações.

10) Alinhamento de valores: sistemas de IA altamente autônomos devem ser projetados para que seus objetivos e comportamentos possam estar alinhados com os valores humanos em toda a sua operação.

11) Valores humanos: Os sistemas de IA devem ser projetados e operados de forma a serem compatíveis com os ideais de dignidade humana, direitos, liberdades e diversidade cultural.

12) Privacidade pessoal: as pessoas devem ter o direito de acessar, gerenciar e controlar os dados que geram, dado o poder dos sistemas de IA de analisar e utilizar esses dados.

13) Liberdade e privacidade: A aplicação de IA a dados pessoais não deve reduzir de forma injustificada a liberdade real ou percebida das pessoas.

14)  Benefício compartilhado: as tecnologias de IA devem beneficiar e capacitar o maior número possível de pessoas.

15) Prosperidade Compartilhada: A prosperidade econômica criada pela IA deve ser amplamente compartilhada, para beneficiar toda a humanidade.

16)  Controle Humano: Os humanos devem escolher como e se desejam delegar decisões aos sistemas de IA, para atingir os objetivos escolhidos pelos humanos.

17) Não subversão: O poder conferido pelo controle de sistemas de IA altamente avançados deve respeitar e melhorar, ao invés de subverter, os processos sociais e cívicos dos quais depende a saúde da sociedade.

18) Corrida Armamentista AI: Uma corrida armamentista em armas autônomas letais deve ser evitada.

Problemas de longo prazo

19) Cuidado de capacidade: Não havendo consenso, devemos evitar fortes suposições sobre os limites superiores das futuras capacidades de IA.

20) Importância: A IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos adequados.

21) Riscos: Os riscos apresentados pelos sistemas de IA, especialmente os riscos catastróficos ou existenciais, devem estar sujeitos a esforços de planejamento e mitigação compatíveis com seu impacto esperado.

22) Auto-aperfeiçoamento recursivo: Os sistemas de IA projetados para auto-aperfeiçoamento ou auto-replicação recursiva de uma maneira que possa levar a um aumento rápido da qualidade ou quantidade devem estar sujeitos a medidas rígidas de segurança e controle.

23) Bem Comum: A superinteligência só deve ser desenvolvida a serviço de ideais éticos amplamente compartilhados e para o benefício de toda a humanidade, e não de um estado ou organização.

https://www.linkedin.com/in/oliveirafab/

Publicado em Principal

Deixe um comentário