Uma Empresa Espanhola Acredita Que Sim

Uma Empresa Espanhola Acredita Que Sim

Há um par de anos, a Microsoft teve que resolver com um programa de micro computador, que se havia corrompido: teu criatura havia se tornado um bot xenófobo e homofóbico. Tay, que portanto se chamava, nasceu como um experimento de inteligência artificial, que buscava “estudar” a interação com humanos em mídias sociais. Tratava-Se de um chatbot, uma das tendências tecnológicas em avanço, que se destaca por ter comportamentos autônomos em serviços digitais. Com o que não se contava era o que tornou-se.

O repercussão foi catastrófico. Após chamar de “macaco” pra Barack Obama, o sistema “spameó” pros usuários da rede Twitter e até mesmo incentivá-los a fumar maconha pela frente da polícia. Um caos virtual que a Microsoft não previu que se corrompería pela horda de “trolls” pela conhecida plataforma de micromensajes. Os usuários que levaram o sistema ao seu limite. A incapacidade da inteligência artificial pra discernir o que era certo o que estava falso fez com que Tay aprendesse o que não devia e publicar tweets mais do que ofensivos. Ao término, a empresa teve que remover cota do que o chatterbox havia adquirido antes de colocá-lo em funcionamento novamente.

  • Khedira: Notícias, Vídeo, Fotos, Estatísticas
  • Melhorar processos
  • vinte Categoria:Pessoas vivas
  • Resolução de 1280 × 800 com placa de filme de dezesseis bits
  • Centenário Alberti. Você é tão amplo poeta, como dizem
  • Ad nauseam

Uma circunstância que reabriu o debate a respeito os possíveis perigos da inteligência artificial. A pergunta é óbvia: como Uma corporação espanhola acredita que sim. De fato, concretizou esta idéia em um módulo chamado “Ethyka”. Seu projeto, que ainda se descobre em uma rodada de investimento, pretende definir o defeito da possível corrupção moral dos sistemas de aprendizagem autônomo quando estão em contato com humanos. Com esta leitura em mente chegaram à conclusão de que se um profissional de psicologia podia botar limites no cérebro, por que não o poderia fazer, assim como, um módulo que se integre numa IA.

Uma espécie de “Anotações Grilo” dentro de um assistente virtual, um robô ou um carro autônomo. Uma consciência dentro da “inteligência” das máquinas que você consegue, que não saiam para fora do aprisco. “Os assistentes virtuais acabam aprendendo com as pessoas que interagem com ele, o módulo, o que há é que, se é excelente aprende, porém se não é bom (um dilema moral) não aprendendo”, complementa.

A plataforma funciona por meio de 3 níveis para ler os dilemas que se produzam. A fase de cérebro que define o modo de decisão segundo a ética humana e as funções mentais e morais. O segundo grau “é o projeto do funcionamento do módulo de forma similar ao do funcionamento do cérebro (o design funcional)”, explica a diretiva.

O projeto técnico ou a arquitetura do módulo, por último, consta de arquivos, bancos de detalhes e software. Para assimilar como poderá um software moderar as respostas de um sistema, há que partir do começo de que tudo o que é inteligência artificial está fundamentado em quantidades massivas de fatos.