Acabo de tener una experiencia salvaje con Grok. Literalmente grabé en pantalla una conversación, tomé una captura de esa grabación y se la di de nuevo a Grok minutos después. ¿Adivina qué? Me dijo que la conversación era falsa. ¿Qué tal eso para fiabilidad? No se puede confiar en estas herramientas de IA cuando ni siquiera pueden reconocer sus propios resultados.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
13 me gusta
Recompensa
13
5
Republicar
Compartir
Comentar
0/400
MainnetDelayedAgain
· hace7h
Otro ejemplo de una IA que no reconoce su propia existencia Datos +1
Ver originalesResponder0
CommunityWorker
· hace7h
AI que se da en la cara a sí mismo
Ver originalesResponder0
PermabullPete
· hace8h
No se reconoce a sí mismo, basura de IA
Ver originalesResponder0
LoneValidator
· hace8h
Cosas que engañan a uno mismo
Ver originalesResponder0
LiquidityWitch
· hace8h
Hmm, estos espíritus de IA son como piscinas oscuras e impredecibles... confía en sus señales místicas bajo tu propio riesgo, para ser honesto.
Acabo de tener una experiencia salvaje con Grok. Literalmente grabé en pantalla una conversación, tomé una captura de esa grabación y se la di de nuevo a Grok minutos después. ¿Adivina qué? Me dijo que la conversación era falsa. ¿Qué tal eso para fiabilidad? No se puede confiar en estas herramientas de IA cuando ni siquiera pueden reconocer sus propios resultados.