Domain 3: Applications of Foundation Models (Standard AIF)

Domain 3 Introduction

O texto apresenta o Domínio 3, que aborda a aplicação de modelos de fundação (foundation models). Ele se conecta ao Domínio 2, que discutiu os modelos de fundação e seu ciclo de vida, reforçando que são modelos pré-treinados, prontos para uso e treinados em vastos conjuntos de dados.

Pontos chave do texto:

Em resumo, o texto serve como uma introdução ao Domínio 3 sobre a aplicação de modelos de fundação, destacando suas características, aplicações e a estrutura dos tópicos que serão abordados nas próximas lições. O objetivo é preparar o leitor para entender os aspectos práticos da utilização desses modelos em diferentes cenários.

Resumo Detalhado em Tópicos: Modelos de Fundação

1. O que são modelos de fundação:

2. Diferenciais dos modelos de fundação:

3. Aplicações dos modelos de fundação:

Task Statement 3.1 Lesson 1

O texto apresentado é uma introdução à discussão sobre os critérios de design para aplicações que utilizam foundation models (modelos de fundação). O objetivo principal desta primeira parte é identificar e explicar algumas considerações cruciais para a seleção desses modelos pré-treinados.

Os principais pontos abordados no texto são:

Em resumo, o texto estabelece a base para uma discussão mais aprofundada sobre como selecionar modelos de fundação adequados para diferentes aplicações, enfatizando a necessidade de equilibrar diversos fatores como custo, desempenho, velocidade e os requisitos específicos do caso de uso. A estrutura do texto indica que as próximas lições continuarão a explorar esses e outros critérios de seleção.

Task Statement 3.1 Lesson 2

1

O texto aborda diversas considerações importantes ao se trabalhar com modelos pré-treinados em aprendizado de máquina, especificamente no contexto da tarefa 3.1 (mencionada no início e no final). As principais ideias e pontos levantados são:

1. Viéses nos Dados de Treinamento:

2. Disponibilidade e Compatibilidade do Modelo Pré-Treinado:

3. Customização e Explicabilidade do Modelo Pré-Treinado:

4. Interpretabilidade vs. Explicabilidade:

5. Complexidade do Modelo:

6. Outras Considerações (mencionadas brevemente):

Em resumo, o texto enfatiza a necessidade de uma avaliação abrangente ao escolher e utilizar modelos pré-treinados, indo além da simples disponibilidade e considerando aspectos cruciais como viéses, compatibilidade, capacidade de customização e, principalmente, a distinção entre interpretabilidade e explicabilidade, além dos impactos da complexidade do modelo. O autor informa que a discussão sobre a tarefa 3.1 continuará na próxima lição.

2

Resumo para Revisão e Estudo:

Tópico: Considerações Adicionais no Uso de Modelos Pré-Treinados

Pontos Chave:

Próximo Passo: Continuação do tópico 3.1 na próxima aula.

Task Statement 3.1 Lesson 3

O texto aborda o tema da inferência em modelos de fundação, com foco em como os parâmetros de inferência e os prompts influenciam as respostas do modelo. Ele também introduz o conceito de Retrieval Augmented Generation (RAG) e a importância de bancos de dados vetoriais nesse processo.

Aqui estão os principais pontos do texto:

Em resumo, o texto estabelece as bases para entender como interagir com modelos de fundação através da inferência, destacando o papel crucial dos parâmetros e prompts. Ele também introduz o conceito avançado de RAG e a infraestrutura subjacente dos bancos de dados vetoriais, enfatizando a importância de considerar diferentes abordagens e seus respectivos custos. A próxima lição se aprofundará no RAG.

Task Statement 3.1 Lesson 4

Com base no texto fornecido, aqui estão os principais pontos e uma análise:

Ideia Central: O texto discute a Recuperação Aumentada por Geração (RAG) como uma técnica para aprimorar modelos de linguagem grandes (LLMs) com conhecimento externo e atualizado, mitigando o problema de alucinações. Ele também introduz o conceito de “Agents for Amazon Bedrock” como uma solução para permitir que LLMs realizem tarefas do mundo real.

Componentes do RAG:

Banco de Dados Vetoriais no RAG:

Exemplo de Uso de Banco de Dados Vetorial no Mundo Real: O texto não fornece um exemplo específico além do contexto do RAG. No entanto, podemos inferir que um banco de dados vetorial seria usado em qualquer aplicação que precise encontrar informações semanticamente similares, como: * Sistemas de recomendação: Encontrar produtos ou conteúdos semelhantes aos que um usuário já gostou. * Busca semântica: Permitir que os usuários encontrem documentos ou informações com base no significado de suas palavras, em vez de correspondências exatas de palavras-chave. * Detecção de similaridade: Identificar documentos duplicados ou plagiarismo.

Hallucinações em LLMs e a Solução RAG:

Serviços AWS para Banco de Dados Vetoriais: O texto lista vários serviços da AWS que podem ser usados para armazenar embeddings vetoriais:

Amazon OpenSearch Service e Busca Semântica:

Amazon OpenSearch Serverless:

Knowledge Bases for Amazon Bedrock:

Amazon RDS for PostgreSQL e pgvector:

Capacidade de Modelos Maiores:

Introdução a Agentes para Amazon Bedrock:

Próximos Passos: O texto indica que a próxima lição abordará a tarefa 3.2.

Em resumo, o texto explica de forma clara e concisa o conceito de RAG, a importância de bancos de dados vetoriais nesse processo, os serviços AWS disponíveis para essa finalidade e introduz a ideia de agentes como uma camada adicional para permitir que LLMs interajam com o mundo real e executem tarefas complexas.

Task Statement 3.2 Lesson 1

Com base no texto fornecido, podemos extrair as seguintes informações chave sobre o tema de prompt engineering:

O que é um Prompt:

Componentes de um Prompt:

Um prompt pode conter um ou mais dos seguintes componentes:

Técnicas de Prompt Engineering:

O texto menciona diversas técnicas de prompt engineering:

Definição de Prompt Engineering pela AWS:

Importância da Qualidade do Prompt:

Considerações para a Estratégia de Prompt Engineering:

Tarefas Comuns Suportadas por LLMs no Amazon Bedrock (exemplos):

Espaço Latente (Latent Space):

Em resumo, o texto introduz o conceito de prompt engineering, detalha os componentes de um prompt, explora diversas técnicas para otimizar a interação com LLMs e destaca a importância de entender as capacidades e o “conhecimento” interno (espaço latente) dos modelos para criar prompts eficazes.

Topicos 3.2.1

Conceitos Fundamentais:

Técnicas de Prompt Engineering:

Considerações Estratégicas:

Espaço Latente:

Para o Exame:

Task Statement 3.2 Lesson 2

Com base no texto fornecido, aqui estão alguns pontos sobre ele:

Em resumo, o texto fornece uma explicação concisa e informativa sobre a relação entre o espaço latente e o prompting, a importância do prompt engineering, suas técnicas e os potenciais riscos e medidas de segurança associados.

Topicos 3.2.2

1. Relação entre Espaço Latente e Prompting: * Como prompts interagem com o espaço latente de um modelo de linguagem. * O espaço latente como base de conhecimento estatístico do modelo. * Processo de geração de texto a partir do espaço latente.

2. Limitações do Espaço Latente: * Insuficiência de informação no espaço latente e suas consequências. * O fenômeno da “alucinação” em modelos de linguagem. * Distinção entre correção estatística e factual.

3. Importância do Prompt Engineering: * O papel do prompt engineering para otimizar a saída de modelos generativos. * A diferença entre resultados medianos e excelentes com prompts eficazes.

4. Técnicas de Prompt Engineering: * Ser específico e fornecer instruções claras (formato, exemplos, tom, etc.). * Inclusão de exemplos de comportamento desejado (textos, dados, templates, etc.). * A importância da experimentação e do processo iterativo. * Conhecer os pontos fortes e fracos do modelo utilizado. * Equilíbrio entre simplicidade e complexidade nos prompts. * Uso de comentários para contexto adicional (para engenheiros de prompt). * Implementação de “guardrails” para segurança e controle.

5. Riscos e Limitações do Prompt Engineering: * Identificação de riscos potenciais: exposição, envenenamento (poisoning), sequestro (hijacking), quebra de barreiras (jailbreaking).

6. Conceitos de Segurança em Prompt Engineering: * Prompt Injection: Ataques de manipulação de prompts. * Jailbreaking: Tentativas de burlar as medidas de segurança (guardrails). * Hijacking: Tentativas de alterar ou manipular o prompt original. * Poisoning: Incorporação de instruções maliciosas em conteúdos.

7. Guardrails: * Função dos guardrails para segurança e privacidade. * Configuração de tópicos indesejados, palavras bloqueadas e filtros. * Proteção contra jailbreak, prompt injection e dados sensíveis.

8. Serviços da AWS para Prompt Engineering: * Amazon Bedrock e Amazon Titan como plataformas com modelos personalizáveis. * APIs e ferramentas para construção, refinamento, monitoramento e análise de prompts. * Casos de uso: criação de conteúdo, sumarização, Q&A e chatbots.

Task Statement 3.3 Lesson 1

Com base no texto fornecido, seguem os principais pontos abordados sobre o treinamento e ajuste fino (fine-tuning) de modelos de fundação:

Elementos Chave do Treinamento de um Modelo de Fundação:

Diferença entre Pré-treinamento e Ajuste Fino:

Considerações e Tipos de Ajuste Fino:

A pergunta final do trecho (“What fine-tuning process modifies the weights of the model to adapt to domain-specific data?”) é respondida pelo conceito de Domain adaptation fine-tuning.

Topicos 3.3.1

1. Introdução ao Treinamento de Modelos de Fundação:

2. Pré-treinamento (Pre-training): A Base do Conhecimento:

3. Diferença Crucial: Pré-treinamento vs. Fine-tuning:

4. A Necessidade e os Objetivos do Fine-tuning:

5. Fine-tuning para Tarefas Específicas e o Risco de Esquecimento Catastrófico:

6. Abordagens de Fine-tuning: Do Completo ao Eficiente:

7. Técnicas de Fine-tuning Específicas:

8. Considerações de Memória e Custo no Fine-tuning:

9. Ferramentas e Plataformas:

Este resumo em tópicos fornece uma estrutura clara para revisar os principais conceitos e diferenças apresentados no texto sobre o treinamento e o processo de fine-tuning de modelos de fundação.

Task Statement 3.3 Lesson 2

O texto aborda a importância da preparação de dados para o processo de fine-tuning de modelos de linguagem fundacionais (Foundation Models - FMs), especialmente no contexto da Amazon Web Services (AWS). Ele detalha os passos envolvidos no fine-tuning e, em seguida, explora as opções oferecidas pela AWS para a preparação desses dados.

Principais Pontos do Texto:

Em Resumo:

O texto fornece uma visão geral concisa do processo de fine-tuning de LLMs, com um foco especial na etapa crucial de preparação dos dados. Ele destaca a variedade de ferramentas e serviços oferecidos pela AWS para lidar com diferentes aspectos da preparação de dados, desde abordagens low-code até soluções escaláveis e serverless, além de ferramentas para tarefas específicas como descoberta de features, detecção de bias e rotulagem. Finalmente, introduz o conceito de pre-treinamento contínuo e sua relevância para aprimorar e adaptar modelos generativos de IA.

Topicos 3.3.2

I. Fundamentos do Fine-tuning:

II. A Importância da Preparação de Dados em ML:

III. Opções de Preparação de Dados em AWS:

IV. Continuous Pre-training para Modelos Generativos:

Task Statement 3.4 Lesson 1

O texto aborda a avaliação do desempenho de modelos fundacionais, com foco em como integrar esses modelos em aplicações práticas. Ele destaca considerações importantes e métodos para essa avaliação.

Aqui estão os principais pontos do texto:

Integração de Modelos em Aplicações e Desafios:

Métricas de Avaliação:

Benchmarks e Datasets para Avaliação Genérica de LLMs:

Outras Formas de Avaliação:

O texto conclui indicando que a discussão sobre a avaliação continuará na próxima lição.

Topicos 3.4.1

Integração e Desafios em Aplicações:

Métricas de Avaliação:

Benchmarks e Datasets para Avaliação Genérica de LLMs:

Outras Formas de Avaliação:

Próximos Passos:

Task Statement 3.4 Lesson 2

Com base no texto fornecido, aqui estão os principais pontos e informações relevantes:

Foco Principal da Lição:

Principais Tópicos Abordados:

Em Resumo:

O texto aborda as considerações práticas para integrar LLMs em aplicações, com foco na necessidade de recursos externos, na utilização do RAG como solução para problemas de conhecimento desatualizado e imprecisão, e na arquitetura de alto nível necessária para construir e operar essas aplicações de forma segura e eficaz. A lição também enfatiza a importância de definir objetivos, métricas e realizar um monitoramento contínuo.

Topicos 3.4.2

Fase 2 do Planejamento de LLMs em Produção:

Recursos Adicionais para LLMs em Aplicações:

Conexão com Dados e Aplicações Externas:

Retrieval Augmented Generation (RAG):

Orchestration Libraries:

RAG vs. Retreinamento:

Arquitetura de Alto Nível para Aplicações de IA Generativa:

Design da Aplicação e Interface (API):

Definição de Objetivos, Métricas e Infraestrutura:

Monitoramento e Avaliação Contínuos:

Componentes Chave para Soluções End-to-End:

Interação do Usuário com a Arquitetura Completa:

Necessidade de Armazenamento Adicional:

Interação com Sistemas Existentes via APIs:

1 - What Are Foundation Models? https://aws.amazon.com/what-is/foundation-models/

2 - Inference Parameters https://docs.aws.amazon.com/bedrock/latest/userguide/inference-parameters.html

3 - Knowledge Bases for Amazon Bedrock https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base.html

4 - Agents for Amazon Bedrock https://docs.aws.amazon.com/bedrock/latest/userguide/agents.html

5 - Amazon OpenSearch Service’s Vector Database Capabilities Explained https://aws.amazon.com/blogs/big-data/amazon-opensearch-services-vector-database-capabilities-explained/

6 - The Role of Vector Datastores in Generative AI Applications https://aws.amazon.com/blogs/database/the-role-of-vector-datastores-in-generative-ai-applications/

7 - Vector Engine for Amazon OpenSearch Serverless https://aws.amazon.com/opensearch-service/serverless-vector-engine/

8 - What Is Prompt Engineering? https://aws.amazon.com/what-is/prompt-engineering/

9 - Domain-Adaptation Fine-Tuning of Foundation Models in Amazon SageMaker JumpStart on Financial Data https://aws.amazon.com/blogs/machine-learning/domain-adaptation-fine-tuning-of-foundation-models-in-amazon-sagemaker-jumpstart-on-financial-data/

10 - Metric: bleu https://huggingface.co/spaces/evaluate-metric/bleu

11 - Metric: rouge https://huggingface.co/spaces/evaluate-metric/rouge

12 - ReFT: Representation Fine-Tuning for Language Models https://huggingface.co/papers/2404.03592