As melhores ofertas, sem rabo preso

WhatsApp Telegram

O desenvolvimento da inteligência artificial causa preocupação em muita gente. Pensando nisso, Google, Microsoft, OpenAI e Anthropic criaram o Frontier Model Forum, que visa garantir o desenvolvimento seguro e responsável de modelos de IA. A iniciativa, porém, é vista com ceticismo: especialistas consideram que pode ser só uma forma de evitar a regulamentação do setor.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

Entre os objetivos do grupo, estão:

As quatro empresas estão entre os principais nomes da inteligência artificial generativa.

O grupo poderá aceitar novos membros, mas os critérios são bastante restritos. A participação é limitada às empresas que constroem “modelos de aprendizagem de máquina em larga escala que excedam as capacidades atualmente presentes nos modelos mais avançados”.

Como nota o Financial Times, isso sugere que o grupo não está de olho nos problemas atuais da inteligência artificial, como violação de direitos autorais, riscos de privacidade e desemprego causado substituição de mão de obra humana.

Modelos mais avançados podem trazer novos problemas, e é nisso que o Frontier Model Forum está pensando.

IA está na mira de novas regulações

O tema da inteligência artificial atrai a atenção de autoridades. Nos EUA, o presidente Joe Biden prometeu uma ação executiva para promover “inovação responsável”. Já a Comissão Federal de Comércio (FTC) está investigando a OpenAI por possíveis práticas injustas ou enganosas envolvendo proteção de dados.

Recentemente, as quatro empresas do Frontier Model Forum, a Meta, a Inflection e a Amazon concordaram em seguir as diretrizes da Casa Branca para IA.

A União Europeia tem conversas avançadas para aprovar um conjunto de regras para a IA, visando promover direitos e valores como supervisão humana, transparência, não-discriminação e bem-estar social.

No Brasil, o tema está em discussão desde 2020 no Congresso Nacional, com o Marco da Inteligência Artificial. Em 2023, um novo texto foi proposto.

Em entrevista ao Financial Times, Emily Bender, pesquisadora da Universidade de Washington, avalia a iniciativa do Frontier Model Forum é uma forma de “evitar regulações” e tentar “reivindicar a possibilidade de autorregulação”.

Durante palestras e debates nos últimos meses, Sam Altman, CEO e um dos fundadores da OpenAI, tem defendido que não é o momento de regular a IA, porque isso prejudicaria a inovação.

Para ele, isso deve ser feito apenas quando surgir um modelo tão inteligente quanto a civilização humana. Mesmo neste caso, Altman considera que o mais adequado seria a criação de uma agência global, como a Agência Internacional de Energia Atômica, ligada à Organização das Nações Unidas (ONU).

Com informações: The Financial Times, The Washington Post, TechCrunch

Frontier Model ForumMicrosoft 365ChatGPTEUAJoe BidenUnião EuropéiaAmazon.comONUMicrosoft EdgeBingBard

Fonte: tecnoblog.net/noticias/2023/07/26/google-microsoft-e-openai-prometem-desenvolvimento-responsavel-da-ia