Os princípios desenvolvidos em conjunto com a conferência Asilomar 2017 têm como objetivo garantir o desenvolvimento da inteligência artificial (IA) de forma segura, ética e responsável. Esses princípios abrangem questões como financiamento de pesquisa, vínculo entre ciência e política, ética e valores, problemas de longo prazo e outras questões relacionadas à IA. A aplicação desses princípios pode ajudar a promover a segurança, transparência e responsabilidade na IA, bem como evitar corridas e riscos desnecessários.
Referência bibliográfica: Asilomar AI Principles. (2017). Future of Life Institute. Disponível em: https://futureoflife.org/ai-principles/
Estes princípios foram desenvolvidos em conjunto com a conferência Asilomar 2017 ( vídeos aqui ), através do processo aqui descrito .
Clique aqui para ver esta página em outros idiomas: Chinês Alemão Japonês Coreano Russo
A inteligência artificial já forneceu ferramentas benéficas que são usadas todos os dias por pessoas em todo o mundo. Seu desenvolvimento contínuo, guiado pelos seguintes princípios, oferecerá oportunidades incríveis para ajudar e capacitar as pessoas nas próximas décadas e séculos.
Questões de pesquisa
1) Objetivo da pesquisa: O objetivo da pesquisa de IA deve ser criar não inteligência não direcionada, mas inteligência benéfica.
2) Financiamento de Pesquisa: Os investimentos em IA devem ser acompanhados de financiamento para pesquisas que garantam seu uso benéfico, incluindo questões espinhosas em ciência da computação, economia, direito, ética e estudos sociais, como:
- Como podemos tornar os futuros sistemas de IA altamente robustos, para que eles façam o que queremos sem funcionar mal ou serem hackeados?
- Como podemos aumentar nossa prosperidade por meio da automação, mantendo os recursos e o propósito das pessoas?
- Como podemos atualizar nossos sistemas jurídicos para serem mais justos e eficientes, acompanhar o ritmo da IA e gerenciar os riscos associados à IA?
- Com qual conjunto de valores a IA deve estar alinhada e qual status legal e ético ela deve ter?
3) Vínculo Ciência-Política: Deve haver um intercâmbio construtivo e saudável entre pesquisadores de IA e formuladores de políticas.
4) Cultura de Pesquisa: Uma cultura de cooperação, confiança e transparência deve ser fomentada entre pesquisadores e desenvolvedores de IA.
5) Evitar corridas: as equipes que desenvolvem sistemas de IA devem cooperar ativamente para evitar cortes nos padrões de segurança.
Éticas e valores
6) Segurança: os sistemas de IA devem ser seguros e protegidos durante toda a sua vida operacional, e de forma verificável quando aplicável e viável.
7) Transparência de falha: se um sistema de IA causar danos, deve ser possível determinar o motivo.
8) Transparência Judicial: Qualquer envolvimento de um sistema autônomo na tomada de decisão judicial deve fornecer uma explicação satisfatória auditável por uma autoridade humana competente.
9) Responsabilidade: Designers e construtores de sistemas avançados de IA são partes interessadas nas implicações morais de seu uso, mau uso e ações, com responsabilidade e oportunidade de moldar essas implicações.
10) Alinhamento de valores: sistemas de IA altamente autônomos devem ser projetados para que seus objetivos e comportamentos possam estar alinhados com os valores humanos em toda a sua operação.
11) Valores humanos: Os sistemas de IA devem ser projetados e operados de forma a serem compatíveis com os ideais de dignidade humana, direitos, liberdades e diversidade cultural.
12) Privacidade pessoal: as pessoas devem ter o direito de acessar, gerenciar e controlar os dados que geram, dado o poder dos sistemas de IA de analisar e utilizar esses dados.
13) Liberdade e privacidade: A aplicação de IA a dados pessoais não deve reduzir de forma injustificada a liberdade real ou percebida das pessoas.
14) Benefício compartilhado: as tecnologias de IA devem beneficiar e capacitar o maior número possível de pessoas.
15) Prosperidade Compartilhada: A prosperidade econômica criada pela IA deve ser amplamente compartilhada, para beneficiar toda a humanidade.
16) Controle Humano: Os humanos devem escolher como e se desejam delegar decisões aos sistemas de IA, para atingir os objetivos escolhidos pelos humanos.
17) Não subversão: O poder conferido pelo controle de sistemas de IA altamente avançados deve respeitar e melhorar, ao invés de subverter, os processos sociais e cívicos dos quais depende a saúde da sociedade.
18) Corrida Armamentista AI: Uma corrida armamentista em armas autônomas letais deve ser evitada.
Problemas de longo prazo
19) Cuidado de capacidade: Não havendo consenso, devemos evitar fortes suposições sobre os limites superiores das futuras capacidades de IA.
20) Importância: A IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos adequados.
21) Riscos: Os riscos apresentados pelos sistemas de IA, especialmente os riscos catastróficos ou existenciais, devem estar sujeitos a esforços de planejamento e mitigação compatíveis com seu impacto esperado.
22) Auto-aperfeiçoamento recursivo: Os sistemas de IA projetados para auto-aperfeiçoamento ou auto-replicação recursiva de uma maneira que possa levar a um aumento rápido da qualidade ou quantidade devem estar sujeitos a medidas rígidas de segurança e controle.
23) Bem Comum: A superinteligência só deve ser desenvolvida a serviço de ideais éticos amplamente compartilhados e para o benefício de toda a humanidade, e não de um estado ou organização.
Deixe um comentário