Fonte da imagem: Gerada pela ferramenta Unbounded AI
Algum tempo atrás, Zhang Ying compartilhou alguns julgamentos sobre tendências de IA e 7 sugestões para empreendedorismo de IA na AI Conference of Chaos Academy. Ele mencionou na primeira sugestão:
"Todos devem prestar atenção ao aprendizado e aplicação da IA. A iteração eficaz é mais importante do que qualquer outra coisa. Um ponto-chave é aprender a escrever palavras prontas. Saber como fazer perguntas é muito importante. Como interagir melhor com a IA também é uma ciência." *
Hoje falaremos um pouco sobre "Engenharia". No início do ano, vários dicionários Midjourney se popularizaram na Internet, como:
luzes de néon brilhantes
visão de alto ângulo visão de alto ângulo
superfícies polidas futuristas
Estilo clássico, vintage do século XVIII-XIX
Ukiyo-e tradicional japonês ukiyoe
……
Até recentemente, os grandes deuses pregavam peças no código QR novamente. Depois de escrever as palavras de estilo e elementos, eles podem produzir alguns "códigos QR de arte AI" exclusivos:
**Sabemos que se você pode usar um modelo de linguagem grande depende muito da qualidade de suas palavras rápidas, mas não pense em palavras rápidas como simples, não são apenas mais algumas palavras ou frases ao fazer perguntas As palavras são tão simples, a razão pela qual é chamada de Engineering (prompt engineering) é porque existem muitas práticas complicadas de engenharia. **
No artigo de hoje, começamos com dois casos, o primeiro é um exemplo de texto simples e o segundo é um exemplo que requer código para ser implementado, para introduzir alguns princípios e técnicas importantes de Engenharia:
**O primeiro caso é o "modelo de redação de estilo quente" que é muito popular em algumas comunidades de IA. Ele usa principalmente texto simples para escrever modelos e prompts de regras para IA. **
**O segundo caso é um exemplo de "robô de pedidos de comida" no curso de engenharia de prompt do ChatGPT com o qual Ng Enda e OpenAI cooperaram oficialmente. **
**Finalmente, vamos resumir alguns princípios e técnicas básicas. **
Obviamente, não há diferença essencial entre o texto simples das palavras de prompt e a escrita do código. O objetivo de usar o código é economizar tokens e tornar a saída mais estável e precisa, porque o chinês ainda usa mais tokens. Quando você precisa chamar APIs em grande escala Às vezes, o custo aumenta drasticamente. Prompts de texto simples também podem ser muito complexos.Por exemplo, eu vi mais de 600 linhas de prompts de texto e eles são compostos de vários grupos de módulos.
1Um modelo popular de direitos autorais (texto simples)
Vamos apresentar brevemente o que é "Engineering" (prompt engineering)? Normalmente, isso significa converter as perguntas que você deseja fazer em entrada em um formato específico e usar modelos, regras e algoritmos predefinidos para processamento, para que a IA possa entender melhor a tarefa e fornecer as respostas correspondentes. Permita que a IA entenda tarefas com precisão ao máximo, reduza mal-entendidos e erros causados por expressões de linguagem pouco claras e permita que ela execute tarefas específicas com precisão e confiabilidade.
Vamos passar para este exemplo de texto. Em muitos cenários que exigem direitos autorais, como páginas de comércio eletrônico, Xiaohongshu plantando direitos autorais, postagens em fóruns, etc., se você deixar a IA escrever diretamente, o efeito pode não ser bom, ** mas por meio dessas "cinco etapas", você pode fazer Melhor qualidade de saída e resultados mais estáveis. **
A primeira etapa, "alimentar" o copywriting que você acha que é bom para a IA, e para deixar claro para a AI aprender esse copywriting, precisamos dizer claramente à AI: "Em seguida, enviarei a você um estudo de copywriting , o objetivo é Criar um modelo de copywriting para modelos populares. Depois de terminar de aprender, você só precisa responder: Eu aprendi. O copywriting é o seguinte: "
**A segunda etapa, após a resposta da IA "Aprendi", vamos começar a deixar a IA modelar o estilo de escrita deste copywriting.
Terceira etapa De modo geral, a IA não resume bem neste momento. Precisamos permitir que a IA aprenda mais e mude suas próprias respostas. Neste momento, podemos dar uma estrutura à IA. Claro, esta etapa também pode ser integrada diretamente na etapa anterior.
Na quarta etapa, deixamos a IA atribuir pesos a cada parte.
Etapa 5, Nomeamos esse modelo para que a IA possa chamá-lo rapidamente.
Seguem alguns exemplos de aplicação:
Para muitos campos de direitos autorais que são relativamente formatados e não exigem alta criatividade, o conteúdo do AI atingiu acima da linha de base e o restante pode ser modificado manualmente.
**Você também pode continuar a ajustar esse modelo, como pedir à IA para escrever de forma mais criativa ou "alimentar" a IA com uma cópia inicial que melhor atenda às suas necessidades, e você pode usar essa ideia e estrutura de treinamento para treinar de maneira mais adequada para você modelo de artigo. **
Finalmente, o link deste modelo de treinamento é o seguinte, amigos interessados podem tentar:
Com base nessa ideia de treinamento, os internautas também desenvolveram muitos cenários interessantes, você pode tentar:
2** Um modelo de robô ordenador (implementado por código)**
Como usar o ChatGPT para construir um robô de pedidos de refeições? Podemos fazê-lo através da Engenharia.
Este exemplo de um robô que pede refeições vem do curso DeepLearning.ai. O fundador do DeepLearning.ai, Wu Enda, juntou-se ao desenvolvedor do OpenAI, Iza Fulford, para lançar um curso de engenharia para desenvolvedores. Wu Enda é um professor famoso na área de IA. Ele é professor visitante no Departamento de Ciência da Computação e Engenharia Elétrica da Universidade de Stanford. Ele já foi diretor do Laboratório de Inteligência Artificial de Stanford.
O ChatGPT é uma interface de diálogo de bate-papo, a partir da qual podemos construir um robô de bate-papo com funções personalizadas, como um agente de atendimento ao cliente de IA para um restaurante ou um solicitador de IA e outras funções.
Mas como este é um cenário comercial, precisamos de respostas precisas e estáveis do ChatGPT. Neste momento, é mais apropriado usar linguagem de computador do que texto simples, então precisamos implantar o pacote OpenAI Python primeiro.
Para este modelo de chatbot personalizado, estamos essencialmente treinando um bot que recebe uma série de mensagens como entrada e gera as mensagens geradas pelo modelo. Neste exemplo, GPT-3.5 é usado, e 3.5 pode ser mais adequado para uso comercial neste estágio, porque o GPT-4 é muito caro.
**O cenário de aplicação deste robô de pedidos é uma pizzaria. As funções realizadas são: primeiro cumprimentar os clientes, depois coletar os pedidos e perguntar se eles precisam retirar ou entregar. **No caso de entrega, o bot de pedido pode solicitar o endereço. Por fim, o bot de pedidos coleta o pagamento.
Na conversa real, o robô que faz o pedido gerará uma resposta de acordo com a entrada do usuário e as instruções do sistema:
Usuário diz: "Oi, gostaria de pedir uma pizza"
O bot de pedidos responderá: "Ótimo, que tipo de pizza você gostaria de pedir? Temos pizzas de calabresa, queijo e berinjela, quais são os preços"
Ao longo da conversa, o robô de pedidos gerará uma resposta com base na entrada do usuário e nas instruções do sistema, de modo a tornar a conversa mais natural e suave e, ao mesmo tempo, evitar a inserção de informações óbvias na conversa.
Primeiro, definimos uma "função auxiliar" que coleta as mensagens do usuário para evitar que as digitemos manualmente. Essa função irá coletar dicas da interface do usuário e anexá-las a uma lista chamada contexto, que é usada para chamar o modelo todas as vezes, incluindo informações do sistema e menus.
O feedback do ChatGPT e o feedback do usuário serão adicionados ao contexto, e esse contexto se tornará cada vez mais longo. Dessa forma, o ChatGPT tem todas as informações necessárias para decidir o que fazer a seguir. Aqui estão as palavras de alerta implantadas pelo contexto: "Você é um bot de pedidos, um serviço automatizado que coleta pedidos de uma pizzaria. Você primeiro cumprimenta o cliente, depois coleta o pedido e pergunta se deseja retirar ou entregar". (Veja a imagem abaixo para detalhes)
Se realmente funcionasse, seria: o usuário diz "Oi, gostaria de pedir uma pizza". Em seguida, o bot de pedidos diz: "Ok, que tipo de pizza você gostaria de pedir? Temos pizzas de calabresa, queijo e berinjela, quanto custam"
Como a palavra de prompt já contém o preço, ela será listada diretamente aqui. O usuário pode responder: eu gosto de uma pizza média de berinjela. Assim, o usuário e o robô que faz o pedido podem continuar essa conversa para sempre, incluindo se desejam entregar, se precisam de ingredientes adicionais e verificar novamente se precisam de outras coisas (como água? Ou batatas fritas?)...
Por fim, pedimos ao bot de pedidos que crie um resumo baseado em conversa que pode ser enviado ao sistema de pedidos:
No último link de saída, a saída inclui: categorias de produtos (pizza, ingredientes, bebidas, lanches...), tipo, tamanho, preço, se a entrega é necessária e endereço. Como queremos que o resultado seja completamente estável e previsível sem qualquer criatividade, vamos definir a temperatura para 0. No final, tais resultados podem ser enviados diretamente para o sistema de pedidos.
Como este artigo não está cheio de códigos, acredito que você não esteja disposto a ver códigos densos em seu celular, por isso colocamos aqui apenas os pontos principais. Se você quiser saber mais, você pode assistir a este vídeo instrutivo detalhado:
3 Alguns princípios e técnicas importantes
Por fim, vamos resumir os dois princípios principais e as limitações atuais dos modelos de linguagem grandes.Você precisa saber onde está o limite inferior atual dos recursos do modelo de linguagem grande, o que é mais útil para encontrar cenários de aplicativos específicos.
**Os dois princípios são: escrever instruções claras e específicas e dar ao modelo tempo suficiente para pensar. **
**Princípio 1: Escreva instruções claras e específicas. **
Este princípio enfatiza que, ao usar modelos de linguagem como o ChatGPT, instruções claras e específicas precisam ser dadas. Clareza não significa brevidade. Palavras muito curtas geralmente fazem com que o modelo caia em suposições. Existem 4 estratégias específicas sob este princípio:
**1) Use delimitadores para delimitar claramente as diferentes partes da entrada. **
Os delimitadores podem ser acentos graves, aspas, etc. A ideia principal é identificar claramente as diferentes partes da entrada, o que ajuda o modelo a entender e processar a saída. O delimitador permite que o modelo saiba claramente que esta é uma parte independente, o que pode efetivamente evitar a "injeção de dica". A chamada injeção de prompt refere-se a algumas instruções conflitantes que podem ser geradas por engano quando alguns usuários adicionam uma nova entrada, resultando em resultados incorretos.
**2) Solicitar saída estruturada: Para facilitar a análise da saída do modelo, a saída estruturada pode ser solicitada. **
Na palavra de prompt, você pode especificar: Gere três títulos de livros fictícios, juntamente com seus autores e gêneros, fornecidos no seguinte formato: ID do livro, título, autor e gênero.
**3) Peça ao modelo para verificar se a condição foi atendida. **
Se a tarefa tiver suposições e essas condições não forem necessariamente atendidas, o modelo pode ser instruído a verificar essas suposições primeiro, indicar se não forem atendidas e impedir que a tarefa retorne diretamente para evitar resultados incorretos inesperados.
Como no exemplo a seguir: vamos copiar um parágrafo que descreve como fazer chá e, em seguida, copiar o prompt, que diz que se o texto contiver uma série de instruções, reescreva essas instruções no seguinte formato, seguido pela etapa -instruções passo a passo. Se o texto não contiver uma série de instruções, simplesmente escreva "Nenhuma etapa fornecida".
**4) Dicas de mini-lote: forneça exemplos bem-sucedidos de execução de tarefas antes de solicitar ao modelo que conclua a tarefa real. **
Essa estratégia é simples, mas importante, ou seja, podemos incluir um exemplo correto na palavra prompt. Por exemplo, pedimos ao modelo para responder em um tom consistente, a tarefa de entrada é "responder a perguntas em um estilo consistente" e, em seguida, fornecer um exemplo de conversa entre uma criança e um avô, a criança disse: "Ensine-me o que paciência é", o avô responde por analogia.
Agora pedimos ao modelo que responda com um tom consistente, quando a próxima pergunta for: "me ensine o que é resiliência". Como o modelo já tem esses poucos exemplos, ele responderá à próxima tarefa com um tom semelhante, responderá: "A resiliência é como uma árvore que pode ser dobrada pelo vento, mas nunca se quebra".
**Princípio 2: Dê ao modelo tempo suficiente para pensar. **
Se o modelo comete um erro de raciocínio porque está ansioso para chegar a uma conclusão errada, ele deve tentar reconstruir as palavras do prompt.A ideia central é exigir que o modelo execute uma série de raciocínios relacionados antes de fornecer a resposta final. Existem 2 estratégias sob este princípio:
1) Especifique as etapas para concluir a tarefa:
Declarar explicitamente as etapas necessárias para concluir uma tarefa pode ajudar o modelo a entender melhor a tarefa e produzir uma saída mais precisa.
2) Instrua o modelo (antes de tirar conclusões precipitadas) para formular sua própria solução:
Instruir explicitamente o modelo a raciocinar sobre a solução por conta própria antes de chegar a uma conclusão pode ajudar o modelo a concluir a tarefa com mais precisão.
**Discussão Adicional: Como visualizar as limitações do modelo? **
Atualmente, o maior problema com a comercialização de grandes modelos de linguagem é a "ilusão". Porque durante seu processo de treinamento, o grande modelo é exposto a uma grande quantidade de conhecimento, mas não se lembra perfeitamente das informações que viu e não está claro onde está o limite do conhecimento. Isso significa que o grande modelo pode tentar responder a todas as perguntas, às vezes inventando coisas que parecem plausíveis, mas não são.
Uma estratégia para reduzir as alucinações é primeiro pedir ao modelo de linguagem grande para encontrar todas as partes relevantes do texto, depois pedir que use essas citações para responder à pergunta e rastrear a resposta até o documento de origem. Essa estratégia pode reduzir a ocorrência de alucinações.
O artigo de hoje é mais prático, explicamos algumas aplicações mais aprofundadas da Engenharia através de dois casos (um de texto simples e outro de programação).
Modelos de linguagem grandes como GPT-3.5 e GPT-4 entendem tudo, mas é justamente por ser muito amplo que se você não der uma dica, a resposta que você obterá geralmente será uma roda de carro.
A importância de (prompt) neste momento é evidente, e não é apenas uma palavra ou uma frase simples.Se você deseja obter funções mais complexas, também precisa de palavras de prompt mais complexas.
Também exige que todos tenham ideias e criem jogabilidades mais novas ou mais adequadas. Sua "exclusividade" também é muito forte. Por exemplo, o premiado anterior "Space Opera House", o autor afirmou que gastou mais de 80 horas e mais de 900 iterações para criar este trabalho e se recusou a compartilhar os prompts que Midjourney usou até agora.
** É claro que, por si só, pode ser apenas uma demanda faseada. Sam Altman disse uma vez: Depois de cinco anos, pode não ser mais necessário solicitar o cargo de engenheiro, porque a IA terá a capacidade de aprender por si mesma. Mas é inegável que essa "demanda faseada" é uma arma importante para realmente ajudar a IA a penetrar em todos os aspectos dos negócios. **
Não precisamos começar do zero agora, existem muitas boas comunidades em casa e no exterior, todos estão trocando experiências sobre o uso de palavras prontas e até listam as palavras prontas populares atuais, que listaremos no apêndice no final do artigo.
** Do ponto de vista do empreendedorismo/investimento, todos estão discutindo onde estão as oportunidades na camada de aplicativos. Costumo visitar esses sites populares de prompt word para ver, e talvez eu possa encontrar algumas inovações em cenários de aplicativos desses populares recém-lançados inspiração de palavras rápidas. Não importa o quanto você tenha visto, é melhor tentar. **
Adendo: Alguns Sites de Discussão do Prompt Word
Comunidade de IA:
(Um site popular de prompt word no exterior, que pode ser classificado por popularidade e abrange uma gama completa de cenários.)
2、 Escrevendo s no Reddit (r/Writings):
(O subreddit Writings no Reddit é uma comunidade muito ativa onde os usuários postam e respondem a vários prompts de escrita.)
3. Listou as 100 melhores palavras de alerta
(As 100 melhores palavras de prompt do ChatGPT para potencializar seu fluxo de trabalho.)
4. Um site de palavras em chinês:
(Ele pode ser classificado por popularidade, e os cenários cobertos são muito completos, desde escrita, programação até finanças, assistência médica, etc.)
5. Outro site de palavras em chinês: Tip Wizard
(O copywriting Xiaohongshu tem a classificação mais alta e tem uma exibição mais intuitiva de palavras rápidas.)
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Como treinar a IA para trabalhar para você? O Segredo da Palavra Prompt (_)
Fonte: Parceiros Matrix
Algum tempo atrás, Zhang Ying compartilhou alguns julgamentos sobre tendências de IA e 7 sugestões para empreendedorismo de IA na AI Conference of Chaos Academy. Ele mencionou na primeira sugestão:
Hoje falaremos um pouco sobre "Engenharia". No início do ano, vários dicionários Midjourney se popularizaram na Internet, como:
luzes de néon brilhantes
visão de alto ângulo visão de alto ângulo
superfícies polidas futuristas
Estilo clássico, vintage do século XVIII-XIX
Ukiyo-e tradicional japonês ukiyoe
……
Até recentemente, os grandes deuses pregavam peças no código QR novamente. Depois de escrever as palavras de estilo e elementos, eles podem produzir alguns "códigos QR de arte AI" exclusivos:
No artigo de hoje, começamos com dois casos, o primeiro é um exemplo de texto simples e o segundo é um exemplo que requer código para ser implementado, para introduzir alguns princípios e técnicas importantes de Engenharia:
Obviamente, não há diferença essencial entre o texto simples das palavras de prompt e a escrita do código. O objetivo de usar o código é economizar tokens e tornar a saída mais estável e precisa, porque o chinês ainda usa mais tokens. Quando você precisa chamar APIs em grande escala Às vezes, o custo aumenta drasticamente. Prompts de texto simples também podem ser muito complexos.Por exemplo, eu vi mais de 600 linhas de prompts de texto e eles são compostos de vários grupos de módulos.
1Um modelo popular de direitos autorais (texto simples)
Vamos apresentar brevemente o que é "Engineering" (prompt engineering)? Normalmente, isso significa converter as perguntas que você deseja fazer em entrada em um formato específico e usar modelos, regras e algoritmos predefinidos para processamento, para que a IA possa entender melhor a tarefa e fornecer as respostas correspondentes. Permita que a IA entenda tarefas com precisão ao máximo, reduza mal-entendidos e erros causados por expressões de linguagem pouco claras e permita que ela execute tarefas específicas com precisão e confiabilidade.
Vamos passar para este exemplo de texto. Em muitos cenários que exigem direitos autorais, como páginas de comércio eletrônico, Xiaohongshu plantando direitos autorais, postagens em fóruns, etc., se você deixar a IA escrever diretamente, o efeito pode não ser bom, ** mas por meio dessas "cinco etapas", você pode fazer Melhor qualidade de saída e resultados mais estáveis. **
A primeira etapa, "alimentar" o copywriting que você acha que é bom para a IA, e para deixar claro para a AI aprender esse copywriting, precisamos dizer claramente à AI: "Em seguida, enviarei a você um estudo de copywriting , o objetivo é Criar um modelo de copywriting para modelos populares. Depois de terminar de aprender, você só precisa responder: Eu aprendi. O copywriting é o seguinte: "
**Você também pode continuar a ajustar esse modelo, como pedir à IA para escrever de forma mais criativa ou "alimentar" a IA com uma cópia inicial que melhor atenda às suas necessidades, e você pode usar essa ideia e estrutura de treinamento para treinar de maneira mais adequada para você modelo de artigo. **
Finalmente, o link deste modelo de treinamento é o seguinte, amigos interessados podem tentar:
Com base nessa ideia de treinamento, os internautas também desenvolveram muitos cenários interessantes, você pode tentar:
2** Um modelo de robô ordenador (implementado por código)**
Como usar o ChatGPT para construir um robô de pedidos de refeições? Podemos fazê-lo através da Engenharia.
Este exemplo de um robô que pede refeições vem do curso DeepLearning.ai. O fundador do DeepLearning.ai, Wu Enda, juntou-se ao desenvolvedor do OpenAI, Iza Fulford, para lançar um curso de engenharia para desenvolvedores. Wu Enda é um professor famoso na área de IA. Ele é professor visitante no Departamento de Ciência da Computação e Engenharia Elétrica da Universidade de Stanford. Ele já foi diretor do Laboratório de Inteligência Artificial de Stanford.
Mas como este é um cenário comercial, precisamos de respostas precisas e estáveis do ChatGPT. Neste momento, é mais apropriado usar linguagem de computador do que texto simples, então precisamos implantar o pacote OpenAI Python primeiro.
**O cenário de aplicação deste robô de pedidos é uma pizzaria. As funções realizadas são: primeiro cumprimentar os clientes, depois coletar os pedidos e perguntar se eles precisam retirar ou entregar. **No caso de entrega, o bot de pedido pode solicitar o endereço. Por fim, o bot de pedidos coleta o pagamento.
Na conversa real, o robô que faz o pedido gerará uma resposta de acordo com a entrada do usuário e as instruções do sistema:
Usuário diz: "Oi, gostaria de pedir uma pizza"
O bot de pedidos responderá: "Ótimo, que tipo de pizza você gostaria de pedir? Temos pizzas de calabresa, queijo e berinjela, quais são os preços"
Ao longo da conversa, o robô de pedidos gerará uma resposta com base na entrada do usuário e nas instruções do sistema, de modo a tornar a conversa mais natural e suave e, ao mesmo tempo, evitar a inserção de informações óbvias na conversa.
Primeiro, definimos uma "função auxiliar" que coleta as mensagens do usuário para evitar que as digitemos manualmente. Essa função irá coletar dicas da interface do usuário e anexá-las a uma lista chamada contexto, que é usada para chamar o modelo todas as vezes, incluindo informações do sistema e menus.
Como a palavra de prompt já contém o preço, ela será listada diretamente aqui. O usuário pode responder: eu gosto de uma pizza média de berinjela. Assim, o usuário e o robô que faz o pedido podem continuar essa conversa para sempre, incluindo se desejam entregar, se precisam de ingredientes adicionais e verificar novamente se precisam de outras coisas (como água? Ou batatas fritas?)...
Por fim, pedimos ao bot de pedidos que crie um resumo baseado em conversa que pode ser enviado ao sistema de pedidos:
Como este artigo não está cheio de códigos, acredito que você não esteja disposto a ver códigos densos em seu celular, por isso colocamos aqui apenas os pontos principais. Se você quiser saber mais, você pode assistir a este vídeo instrutivo detalhado:
3 Alguns princípios e técnicas importantes
Por fim, vamos resumir os dois princípios principais e as limitações atuais dos modelos de linguagem grandes.Você precisa saber onde está o limite inferior atual dos recursos do modelo de linguagem grande, o que é mais útil para encontrar cenários de aplicativos específicos.
**Os dois princípios são: escrever instruções claras e específicas e dar ao modelo tempo suficiente para pensar. **
Este princípio enfatiza que, ao usar modelos de linguagem como o ChatGPT, instruções claras e específicas precisam ser dadas. Clareza não significa brevidade. Palavras muito curtas geralmente fazem com que o modelo caia em suposições. Existem 4 estratégias específicas sob este princípio:
**1) Use delimitadores para delimitar claramente as diferentes partes da entrada. **
Os delimitadores podem ser acentos graves, aspas, etc. A ideia principal é identificar claramente as diferentes partes da entrada, o que ajuda o modelo a entender e processar a saída. O delimitador permite que o modelo saiba claramente que esta é uma parte independente, o que pode efetivamente evitar a "injeção de dica". A chamada injeção de prompt refere-se a algumas instruções conflitantes que podem ser geradas por engano quando alguns usuários adicionam uma nova entrada, resultando em resultados incorretos.
Na palavra de prompt, você pode especificar: Gere três títulos de livros fictícios, juntamente com seus autores e gêneros, fornecidos no seguinte formato: ID do livro, título, autor e gênero.
Se a tarefa tiver suposições e essas condições não forem necessariamente atendidas, o modelo pode ser instruído a verificar essas suposições primeiro, indicar se não forem atendidas e impedir que a tarefa retorne diretamente para evitar resultados incorretos inesperados.
Como no exemplo a seguir: vamos copiar um parágrafo que descreve como fazer chá e, em seguida, copiar o prompt, que diz que se o texto contiver uma série de instruções, reescreva essas instruções no seguinte formato, seguido pela etapa -instruções passo a passo. Se o texto não contiver uma série de instruções, simplesmente escreva "Nenhuma etapa fornecida".
Essa estratégia é simples, mas importante, ou seja, podemos incluir um exemplo correto na palavra prompt. Por exemplo, pedimos ao modelo para responder em um tom consistente, a tarefa de entrada é "responder a perguntas em um estilo consistente" e, em seguida, fornecer um exemplo de conversa entre uma criança e um avô, a criança disse: "Ensine-me o que paciência é", o avô responde por analogia.
Agora pedimos ao modelo que responda com um tom consistente, quando a próxima pergunta for: "me ensine o que é resiliência". Como o modelo já tem esses poucos exemplos, ele responderá à próxima tarefa com um tom semelhante, responderá: "A resiliência é como uma árvore que pode ser dobrada pelo vento, mas nunca se quebra".
**Princípio 2: Dê ao modelo tempo suficiente para pensar. **
Se o modelo comete um erro de raciocínio porque está ansioso para chegar a uma conclusão errada, ele deve tentar reconstruir as palavras do prompt.A ideia central é exigir que o modelo execute uma série de raciocínios relacionados antes de fornecer a resposta final. Existem 2 estratégias sob este princípio:
Declarar explicitamente as etapas necessárias para concluir uma tarefa pode ajudar o modelo a entender melhor a tarefa e produzir uma saída mais precisa.
2) Instrua o modelo (antes de tirar conclusões precipitadas) para formular sua própria solução:
Instruir explicitamente o modelo a raciocinar sobre a solução por conta própria antes de chegar a uma conclusão pode ajudar o modelo a concluir a tarefa com mais precisão.
**Discussão Adicional: Como visualizar as limitações do modelo? **
Atualmente, o maior problema com a comercialização de grandes modelos de linguagem é a "ilusão". Porque durante seu processo de treinamento, o grande modelo é exposto a uma grande quantidade de conhecimento, mas não se lembra perfeitamente das informações que viu e não está claro onde está o limite do conhecimento. Isso significa que o grande modelo pode tentar responder a todas as perguntas, às vezes inventando coisas que parecem plausíveis, mas não são.
Uma estratégia para reduzir as alucinações é primeiro pedir ao modelo de linguagem grande para encontrar todas as partes relevantes do texto, depois pedir que use essas citações para responder à pergunta e rastrear a resposta até o documento de origem. Essa estratégia pode reduzir a ocorrência de alucinações.
Modelos de linguagem grandes como GPT-3.5 e GPT-4 entendem tudo, mas é justamente por ser muito amplo que se você não der uma dica, a resposta que você obterá geralmente será uma roda de carro.
A importância de (prompt) neste momento é evidente, e não é apenas uma palavra ou uma frase simples.Se você deseja obter funções mais complexas, também precisa de palavras de prompt mais complexas.
Também exige que todos tenham ideias e criem jogabilidades mais novas ou mais adequadas. Sua "exclusividade" também é muito forte. Por exemplo, o premiado anterior "Space Opera House", o autor afirmou que gastou mais de 80 horas e mais de 900 iterações para criar este trabalho e se recusou a compartilhar os prompts que Midjourney usou até agora.
Não precisamos começar do zero agora, existem muitas boas comunidades em casa e no exterior, todos estão trocando experiências sobre o uso de palavras prontas e até listam as palavras prontas populares atuais, que listaremos no apêndice no final do artigo.
** Do ponto de vista do empreendedorismo/investimento, todos estão discutindo onde estão as oportunidades na camada de aplicativos. Costumo visitar esses sites populares de prompt word para ver, e talvez eu possa encontrar algumas inovações em cenários de aplicativos desses populares recém-lançados inspiração de palavras rápidas. Não importa o quanto você tenha visto, é melhor tentar. **
Adendo: Alguns Sites de Discussão do Prompt Word
(Um site popular de prompt word no exterior, que pode ser classificado por popularidade e abrange uma gama completa de cenários.)
(O subreddit Writings no Reddit é uma comunidade muito ativa onde os usuários postam e respondem a vários prompts de escrita.)
(As 100 melhores palavras de prompt do ChatGPT para potencializar seu fluxo de trabalho.)
(Ele pode ser classificado por popularidade, e os cenários cobertos são muito completos, desde escrita, programação até finanças, assistência médica, etc.)
(O copywriting Xiaohongshu tem a classificação mais alta e tem uma exibição mais intuitiva de palavras rápidas.)