FSA: desenvolvendo uma IA
Estudo de caso da Food Standards Agency.
Este estudo de caso está focado no uso de IA para apoiar a inspeção de higiene de estabelecimentos de alimentos, priorizando empresas com maior probabilidade de apresentar maior risco de não conformidade com os regulamentos de higiene alimentar. Atualmente, esse processo é manual, trabalhoso e inconsistente entre as autoridades locais. Espera-se que o uso dessa ferramenta habilitada para IA beneficie as autoridades locais, ajudando-as a usar seus recursos limitados com mais eficiência. A ferramenta foi desenvolvida como uma prova de conceito para explorar a arte do possível. Observe que foi decidido não colocar a ferramenta em uso ao vivo devido a vários motivos e prioridades concorrentes.
O Serviço de Vigilância Estratégica da Food Standards Agency (FSA) é uma equipe de ciência de dados que fortalece a missão de segurança alimentar da FSA. Essa equipe desenvolve ferramentas e técnicas para transformar dados em inteligência, usando aprendizado de máquina e IA. Uma dessas ferramentas é o Food Hygiene Rating Scheme – AI (FHRS AI) construído como uma prova de conceito em colaboração com o fornecedor da FSA, Cognizant Worldwide Limited, para ajudar as autoridades locais a se tornarem mais eficientes no gerenciamento da inspeção de higiene dos estabelecimentos de alimentos. A ferramenta ajuda as autoridades locais a priorizar quais empresas inspecionar em primeira instância, prevendo quais estabelecimentos podem estar em maior risco de não conformidade com os regulamentos de higiene alimentar.
A FSA criou uma estrutura de AI responsável (RAI) para sobrepor sua metodologia ágil de sprint de 10 semanas. A estrutura é baseada em cinco princípios da RAI de Justiça, Sustentabilidade, Privacidade, Responsabilidade e Transparência. Sustentando a estrutura de IA responsável da FSA está a abordagem 'refletir, agir e justificar' postulada pelo Turing Institute em seu artigo 'Understanding Artificial Intelligence Ethics and Safety'. Três diferentes avaliações de risco e impacto foram realizadas durante o desenvolvimento do FHRS-AI:
A estrutura RAI baseada em processos da FSA tem responsabilidades específicas atribuídas a várias partes interessadas, incluindo Negócios (Proprietário da empresa, PMEs empresariais, Liderança executiva, Comitê de direção), FSA Jurídico e conformidade (equipe de segurança e gerenciamento de informações e conhecimento, equipe jurídica) e Vigilância estratégica da FSA (Analista de Negócios, Consultor de Mudanças, Líder de Desenvolvimento, Equipe de Desenvolvimento, Líder RAI).
Além dessas avaliações de impacto e risco, os resultados do modelo de IA foram validados usando outros métodos empíricos. A FSA também participou do piloto do Central Digital and Data Office (CDDO) para o Algorithmic Transparency Standard e publicou o resultado.
Mais informações sobre os Princípios Regulatórios do Livro Branco da IA.
Essa abordagem foi baseada em abordagens de boas práticas para a ética e segurança da IA propostas pelos principais acadêmicos nesse campo. Isso nos permitiu exercer a devida diligência, identificar riscos potenciais e implementar mitigações e criar confiança na ferramenta FHRS-AI.
Para obter mais informações sobre outras técnicas, visite o Catálogo de Ferramentas e Métricas da OCDE: https://oecd.ai/en/catalogue/overview
Para obter mais informações sobre padrões relevantes, visite o AI Standards Hub: https://aistandardshub.org/
