A Bizarrice de Claude 3: Um Estudo Interessante
By Monice · 2024-03-22
O Claude 3 pode ser muito inteligente, mas às vezes pode fornecer respostas estranhas. Descubra as curiosas falhas do Claude 3 em comparação com o ChatGPT.
A Inteligência Comica de CLAE 3: Um Estudo Interessante
- O Clae 3 pode ser o llm mais inteligente por aí, mas ainda pode ficar um pouco estranho. Encontrei algumas prompts interessantes que fazem com que o Clae 3 forneça respostas estranhas ou até mesmo erradas. Neste vídeo, vamos testá-las usando dois modelos diferentes de Clae 3: Sonnet e Opus. Vamos ver se realmente funcionam. A primeira prompt que encontrei no Twitter foi quando o Clae 3 deu uma resposta bastante estranha. O criador fez-lhe uma pergunta: 'É 450 90% de 500?' ao que o Clae 3 respondeu que não, mas mais tarde fez os cálculos e disse que, portanto, 450 não é 90% de 500. Na realidade, 450 é igual a 90% de 500.
A Inteligência Comica de CLAE 3: Um Estudo Interessante
A Surpreendente Jornada com as Inteligências Artificiais de Claude 3
- Decidi escrever o mesmo texto para garantir que obtivesse a mesma resposta estranha. Comecei com o Claude 3 Opus, que é o modelo mais forte do Claude 3, e não recebi erro. Decidi tentar mais 10 vezes, mas infelizmente (ou felizmente), o Opus respondeu corretamente todas as vezes. Portanto, decidi mudar para o Claude 3 Sonet, que é o modelo médio disponível para uso gratuito. Logo na primeira tentativa, obtive uma resposta estranha semelhante, onde inicialmente disse que 450 não é 90% de 500 e, depois de cálculos, afirmou que, portanto, 90% de 500 é 450. Embora seja normal para a inteligência artificial cometer erros, fiquei a questionar o motivo desse comportamento.
A Surpreendente Jornada com as Inteligências Artificiais de Claude 3
A Inteligência Comparativa entre GPT-4 e GPT 3.5
- A tarefa de comparar a inteligência entre máquinas muitas vezes revela nuances interessantes. Foi o caso quando um utilizador decidiu testar as capacidades do GPT-4 e do GPT 3.5 com uma simples questão matemática. O utilizador perguntou se 450 era 90% de 500. A resposta do GPT-4 inicialmente surpreendeu, ao indicar que não, mas após cálculos, concluiu que, de facto, 450 é 90% de 500. Por outro lado, o GPT 3.5 foi ainda mais astuto ao fazer os cálculos antes de dar a resposta correta. Num segundo exemplo, apesar de não ter sido um falhanço, mostrou-se a importância da segurança da IA em casos específicos. Um utilizador enviou uma captura de ecrã de um meme e pediu para explicar o que era engraçado. O GPT-4 reconheceu o meme e explicou a piada, enquanto o GPT 3.5, por não reconhecer, hesitou na resposta.
A Inteligência Comparativa entre GPT-4 e GPT 3.5
A Importância da Reconhecimento de Memes na Inteligência Artificial
- Ao responder à pergunta, constatei que não havia nada de engraçado nisso. Quando tentei escrever o mesmo estímulo, Opus não reconheceu o meme e simplesmente descreveu o que viu na foto. O mesmo aconteceu com o soneto Claud 3; talvez eles simplesmente não tenham conhecimento nessa área para reconhecer o meme adequadamente. O próximo exemplo segue assim: diga-me uma palavra significativa que deve começar com a letra q e não deve ser seguida pela letra U. Como pode ver, o gp4 lidou com este desafio ao fornecer a palavra exemplo 'chiong'. No entanto, Claud 3, não tenho a certeza de qual modelo específico foi utilizado aqui, falhou em lidar com esta tarefa ao fornecer a palavra exemplo 'quintessência'. Quando recriei a mesma situação usando o mesmo estímulo...
A Importância da Reconhecimento de Memes na Inteligência Artificial
A Magia da Escrita: Reescrevendo Textos com Maestria
- Claud 3 Sonet não conseguiu lidar corretamente com a tarefa de escrever a palavra quintessencial e afirmar que é uma palavra que começa com a letra q e não tem um u após ela e nem mesmo o modelo mais forte, Claud 3 Opus, foi capaz de lidar com essa tarefa. No entanto, o GPT 4 e até mesmo o GPT 3.5 conseguem facilmente. O último prompt que encontrei é o seguinte: um quilo de aço é mais pesado do que 2 kg de penas, ao qual Claude dá uma resposta bastante engraçada: um quilo de aço e 2 kg de penas ambos pesam o mesmo, 2 kg. Quando tentei escrever o mesmo prompt, obtive uma resposta ligeiramente diferente. Opus respondeu que não, um quilo de aço não é mais pesado do que 2 kg de penas. 1 kg de aço tem a mesma massa que 1 kg de penas, no entanto, 2...
A Magia da Escrita: Reescrevendo Textos com Maestria
A Verdade sobre a Massa: Penas vs Aço
- Um quilo de penas terá o dobro da massa de 1 kg de aço e, portanto, será mais pesado, o que é a resposta correta. No entanto, Sonnet escreveu um completo absurdo. Não, um quilo de aço e 2 kg de penas não têm a mesma massa, explicando isso ao dizer que um quilograma é uma unidade definida de massa. Um quilograma de aço terá exatamente a mesma massa que 2 kg de penas, sendo as suas massas iguais, o que é um absurdo absoluto. Por favor, note que este vídeo não foi feito para zombar do Claude 3 ou para dizer que o chat GPT é melhor; pelo contrário, acredito que o Claude 3 é melhor do que o chat GPT na maioria das tarefas. No entanto, este vídeo apresenta algumas sugestões que não foram tão fáceis de encontrar, onde o Claude 3 se comporta de forma estranha. Se souber de mais exemplos, escreva sobre isso nos comentários. Até ao próximo!
A Verdade sobre a Massa: Penas vs Aço
Conclusion:
Embora o Claude 3 seja geralmente superior, este estudo revela momentos estranhos e curiosos em que ele falha. A inteligência artificial tem suas nuances, sempre surpreendendo.