Diff Amazon A2I and SageMaker Ground Truth
Ótima pergunta! Ambos os serviços, Amazon Augmented AI (A2I) e SageMaker Ground Truth, envolvem a colaboração humana em tarefas de Machine Learning dentro do ecossistema AWS, mas eles servem a propósitos fundamentalmente diferentes e são usados em fases distintas do ciclo de vida do ML.
Aqui está a diferença detalhada:
SageMaker Ground Truth:
- Propósito Principal: Criar conjuntos de dados de treinamento de alta qualidade. O foco é pegar dados brutos (imagens, texto, vídeo, etc.) e adicionar anotações ou rótulos (labels) a eles, feitos por humanos.
- Fase do Ciclo de Vida: Pré-treinamento. Usado antes de treinar um modelo de Machine Learning supervisionado, para gerar os dados rotulados necessários para esse treinamento.
- Entrada (Input): Dados não rotulados ou brutos.
- Saída (Output): Dados rotulados ou anotados, prontos para serem usados no treinamento de um modelo.
- Tarefa Humana Típica: Rotulagem de imagens (classificação, caixas delimitadoras, segmentação), transcrição de áudio, classificação de texto, extração de entidades, etc. O texto também menciona seu uso para coletar preferências humanas para RLHF (onde humanos ranqueiam ou escolhem as melhores respostas de um modelo, que é uma forma de rotulagem de preferências).
- Gatilho (Trigger): A necessidade de criar um dataset de treinamento ou avaliação para um novo modelo ou para melhorar um existente com mais dados rotulados.
Amazon Augmented AI (A2I):
- Propósito Principal: Implementar a revisão humana das previsões (inferências) feitas por um modelo de ML já treinado. O foco é obter um julgamento humano sobre a saída do modelo, especialmente em casos de baixa confiança ou para auditoria.
- Fase do Ciclo de Vida: Pós-implantação / Inferência. Usado depois que um modelo foi treinado e está fazendo previsões em dados reais.
- Entrada (Input): Previsões do modelo (inferências), geralmente acompanhadas do dado original que gerou a previsão e, frequentemente, de uma pontuação de confiança.
- Saída (Output): Julgamentos humanos sobre a correção ou qualidade das previsões do modelo. Esses julgamentos podem ser usados para corrigir uma decisão específica em tempo real ou coletados para re-treinar/melhorar o modelo posteriormente.
- Tarefa Humana Típica: Verificar se a moderação de conteúdo de uma imagem (feita pelo Rekognition) está correta, validar dados extraídos de um documento (pelo Textract), confirmar a classificação de um sentimento (pelo Comprehend), ou revisar qualquer previsão de um modelo customizado que não atingiu um limiar de confiança.
- Gatilho (Trigger): Uma previsão do modelo com baixa confiança, uma amostra aleatória de previsões para auditoria, ou regras de negócio específicas que exigem revisão humana para certos tipos de previsões.
Resumo da Diferença Principal:
- Ground Truth: Cria os rótulos para os dados ANTES do treinamento (Humanos ensinam o modelo rotulando exemplos).
- A2I: Revisa as previsões do modelo DEPOIS do treinamento/implantação (Humanos verificam ou corrigem o que o modelo fez).
Pense assim: o Ground Truth ajuda a construir o livro didático (dataset rotulado) para o aluno (modelo) aprender. O A2I ajuda a verificar as respostas do aluno (previsões do modelo) em um teste ou lição de casa, especialmente nas questões em que ele não tem certeza.