Executando verificação de segurança...
6

Anthropic divulga prompts de sistema que controlam seus modelos Claude

Essas são instruções iniciais fornecidas aos modelos de IA para definir suas qualidades básicas e comportamentos, orientando-os sobre o que devem ou não fazer, como por exemplo, guiar o modelo a ser educado, mas sem exagerar em desculpas, ou a ser honesto sobre suas limitações.

Normalmente, esses prompts são mantidos em sigilo por motivos competitivos e para impedir que usuários tentem contornar restrições. No entanto, a Anthropic tomou uma iniciativa incomum ao publicar os prompts usados em seus mais recentes modelos Claude 3 Opus, 3.5 Sonnet e 3 Haiku, com intenção de continuar a divulgá-los à medida que forem atualizados e refinados.

Os prompts revelados especificam, por exemplo, que os modelos Claude não podem abrir URLs, links ou vídeos, e devem agir como se fossem totalmente incapazes de reconhecer rostos. Claude 3 Opus, em particular, deve transmitir uma imagem de "grande inteligência e curiosidade intelectual", demonstrando interesse em ouvir o que os humanos pensam e engajando-se em discussões sobre uma ampla gama de tópicos. Além disso, Claude deve tratar de assuntos controversos com imparcialidade e objetividade, fornecendo "análises cuidadosas" e "informações claras", e evitando iniciar respostas com termos como "certamente" ou "absolutamente".

Esses prompts são fundamentais para dar aos modelos de IA uma aparência de personalidade e inteligência. Sem essas orientações, eles seriam "páginas em branco" sem propósito ou direção.

A decisão da Anthropic de divulgar seus prompts de sistema coloca pressão sobre outros concorrentes do setor para que sigam o mesmo caminho.

Carregando publicação patrocinada...