O ChatGPT agora consegue ver, falar,ouvir, percebe e responde

A OpenAI lança um novo capítulo do ChatGPT com funcionalidades multimodais.

 2009
O ChatGPT agora consegue ver, falar,ouvir, percebe e responde

O ChatGPT agora consegue ver as suas imagens, ouvir a sua voz e responder às suas perguntas com uma voz semelhante à humana.

A multimodalidade, ou seja, a capacidade de processar imagens e voz, além de texto, finalmente chegou.

Aqui está o que precisa de saber:

 Voz

• Agora pode utilizar a voz para participar em conversas de ida e volta com o ChatGPT e utilizá-lo como assistente. 

• Pode ativar a voz na secção de Novas Funcionalidades nas Configurações. Pode então escolher entre 5 vozes diferentes.

• Pode ouvir amostras de voz aqui.

Imagens

• Vai poder tirar ou carregar imagens para o ChatGPT e fazer perguntas sobre a imagem.

 • As perguntas podem variar desde o motivo pelo qual o seu grelhador não está a funcionar até ao significado de um gráfico.

• Vai poder focar-se e fazer perguntas sobre uma parte específica da imagem utilizando a ferramenta de desenho.

• Também vai poder carregar capturas de ecrã e documentos que contenham tanto texto como imagens.

• Pode ver um vídeo de demonstração da funcionalidade aqui.

Ambas as funcionalidades estarão disponíveis dentro de 2 semanas para os utilizadores ChatGPT Plus e Enterprise.

 Os desenvolvedores também terão acesso no futuro. Pode obter mais detalhes sobre as novas funcionalidades aqui.

Qual é a sua reação?

like

dislike

love

funny

angry

sad

wow