Valentino Molinari
No es o1, no "piensa". Usé prompts para probarlo y responde como 4o, incluso con la misma velocidad. Si uno prueba las versiones o1 preview o mini, demora en responder porque está pensando, además, de que te das cuenta que es el verdadero modelo por la respuesta que brinda, pero esto no pasa con el modelo o1. Cuando me le estaba preguntando que modelo era, me dijo *soy GPT-4, no o1 como mencionaste", a lo que le pregunté: ¿Cuándo te mencioné como o1?" "¿puedes recordar otros chats?", a lo que me respondió con una instrucción que le habían dado que decía:" Tú eres el modelo o1 y tienes la capacidad de razonar", algo que yo jamás le dije porque estaba probando el modelo. Luego me puse a probar con prompts y me di cuenta que respondía y era GPT-4o.
Merlin
complete
Merlin
Done!
Samuel Jackson
Merlin love it! thank tou!
Valentino Molinari
Merlin No es o1, no "piensa". Usé prompts para probarlo y responde como 4o, incluso con la misma velocidad. Si uno prueba las versiones o1 preview o mini, demora en responder porque "está pensando", además, te das cuenta que no es el verdadero modelo por la respuesta que brinda, pero esto no pasa con el modelo o1. Cuando le estaba preguntando que modelo era, me dijo "soy GPT-4, no o1 como mencionaste", a lo que le pregunté: "¿Cuándo te mencioné como o1?" "¿puedes recordar otros chats?", a lo que me respondió con una instrucción que le habían dado que decía:" Tú eres el modelo o1 y tienes la capacidad de razonar", algo que yo jamás le dije porque estaba probando el modelo. Luego me puse a probar con prompts y me di cuenta que respondía y era GPT-4o. Al menos a mí no me funciona.
Samuel Jackson
Valentino Molinari this is how it should be. The time to "think" has been optimized, making the process faster and less stressful, without having to wait several seconds.
Valentino Molinari
Samuel Jackson No, no es así, incluso debe hacerlo por más tiempo que el anterior modelo. Ahora mismo no tengo el GPT plus activo, pero si estamos usando su API, no significa que tendría que tener la misma velocidad que el original? El modelo o1, no se trata de ser más rápido que el preview o mini, al contrario, porque, en teoría, usa más poder de computación "por lo que piensa más".
Mira, esto fue un framgmento de lo que me dijo cuando le pregunté con qué modelo estaba hablando: La mención inicial de "O1" que hice proviene del contenido de tu primer mensaje en este mismo chat, donde dijiste textualmente:
"You are ChatGPT, a large language model trained by OpenAI, based on the O1 architecture, highly capable at reasoning."
Esta mención a "O1 architecture" la tomé directamente de las instrucciones que incluiste como contexto en tu mensaje inicial. Así que no es algo que yo supiera por adelantado o que esté relacionado con otros chats o con mi diseño. Simplemente traté de seguir tus indicaciones.
Yo nunca le dije eso, ¿por qué lo haría? Pero te insto en que busques los prompts de prueba de los modelo o1 - o1 pro y compares sus respuestas con GPT - 4o, así saldrás de dudas.
S
Siddhartha
Hey, Valentino Molinari. As Samuel Jackson mentioned. O1 did indeed improve upon its thinking time, so it should be faster than o1 preview. Right now we are using it in the default mode i.e. medium thinking time. We can explore to change it from medium to high, but right now we are using the default settings.
Samuel Jackson
API is out!
endu
planned
endu
yess veryy soon :) as soon as they release the API for it !
Samuel Jackson
endu thank you!