O Grupo de Trabalho (Working Group) da NEA sobre Novas Tecnologias realizou um workshop em 25–26 de março, com foco em como a inteligência artificial pode ser aplicada à supervisão regulatória e às operações internas dentro de autoridades nucleares.
Resumo
As discussões se concentraram em implantação prática, e não em teoria, com os participantes analisando como ferramentas existentes podem se encaixar em fluxos de trabalho regulatórios.
O evento reuniu reguladores nucleares e especialistas em IA de 15 países membros da NEA, além de representantes de organizações internacionais. Os participantes compartilharam estudos de caso mostrando sistemas de IA já em uso ou em desenvolvimento em órgãos reguladores.
Os exemplos apresentados durante as sessões incluíram a geração de resumos e apresentações usando IA, a melhoria das capacidades de simulação e a extração de informações relevantes a partir de grandes volumes de documentos regulatórios.
Essas demonstrações levaram a trocas detalhadas sobre desafios de implementação, lições aprendidas e maneiras de identificar aplicações de alto valor.
Os participantes destacaram várias conclusões principais. Há uma necessidade clara de estabelecer estruturas de IA bem estruturadas dentro dos órgãos reguladores, apoiadas por procedimentos e orientações definidos.
Projetos com escopo bem delimitado foram vistos como mais eficazes, enquanto critérios claros de sucesso para ferramentas e iniciativas de IA foram considerados essenciais.
Modelos locais foram identificados como uma possível forma de abordar preocupações relacionadas a cibersegurança, soberania de dados e proteção de dados. Ao mesmo tempo, a experiência humana permanece central para a tomada de decisões e para interpretar outputs gerados por IA.
O workshop incentivou a comparação aberta de abordagens nacionais, com reguladores compartilhando experiências de implementação e identificando preocupações comuns. As trocas também apontaram áreas em que uma cooperação internacional mais próxima poderia ajudar a enfrentar desafios compartilhados.
O Sr. Eetu Ahonen, Vice-Presidente do WGNT, conduziu as discussões e enfatizou o valor da colaboração entre jurisdições.
“Este workshop demonstrou o valor da colaboração internacional. Cada regulador está explorando IA de um ângulo diferente, mas as experiências que temos com a implementação de ferramentas de IA, os desafios de segurança de dados e a garantia de supervisão humana são notavelmente semelhantes. Ao compartilhar de forma aberta e aprender uns com os outros, fortalecemos nossa capacidade de usar IA de maneira responsável e eficiente para melhorar a segurança nuclear.”
O WGNT, que organizou o evento, serve como um espaço para que reguladores e organizações de apoio técnico troquem percepções sobre a supervisão de tecnologias emergentes ao longo de todo o seu ciclo de vida. Seu trabalho apoia o desenvolvimento de uma compreensão compartilhada e ajuda a identificar caminhos para posições regulatórias alinhadas.
A NEA planeja publicar um folheto dedicado para resumir as conclusões do workshop, incluindo desafios-chave, lições aprendidas e práticas recomendadas para a integração de IA em processos regulatórios.
Related Articles
Hyundai Motor Group se reorganiza em torno de IA e robótica, mirando 30.000 robôs Atlas até 2030
China vai testar 300+ robôs humanoides em meia-maratona em Pequim em 19 de abril
EUA Buscam Aumentar Importações de Urânio da Namíbia para Alimentar Usinas Nucleares Impulsionadas por IA
Executivos da OpenAI Bill Peebles e Kevin Weil Deixam o Cargo em Reviravolta na Liderança
Zoom Faz Parceria com World para Adicionar Detecção de Deepfake Usando Reconhecimento Facial
Relatórios de Bugs Gerados por IA Assolam a Equipe de Manutenção do cURL