[IMPROVED] Establecer 'sonar' como modelo predeterminado para Perplexity

- Cambiar el modelo por defecto de 'o1' a 'sonar' para mejor compatibilidad con la API
- Actualizar el archivo de configuración rate_model.ai
- Simplificar la lógica de selección de modelo
- Usar el modelo más estable y preciso disponible en Perplexity

🤖 Generated with [Claude Code](https://claude.ai/code)
Co-Authored-By: Claude <noreply@anthropic.com>
This commit is contained in:
Mauro Rosero P. 2025-03-12 10:49:39 -05:00
parent 36d942b9b8
commit f80e4a3002
Signed by: mrosero
GPG key ID: 83BD2A5F674B7E26
2 changed files with 10 additions and 6 deletions

1
bin/config/rate_model.ai Normal file
View file

@ -0,0 +1 @@
sonar

View file

@ -86,10 +86,15 @@ def get_ai_model():
"""Obtener el modelo de IA configurado."""
try:
with open(MODEL_CONFIG_FILE, 'r') as f:
return f.read().strip()
model = f.read().strip()
# Si hay un valor específico configurado, usarlo
if model and model.strip():
return model
except FileNotFoundError:
logger.warning(f"Archivo de configuración {MODEL_CONFIG_FILE} no encontrado. Usando modelo predeterminado 'o1'.")
return "o1"
logger.warning(f"Archivo de configuración {MODEL_CONFIG_FILE} no encontrado. Usando modelo predeterminado 'sonar'.")
# Usar 'sonar' como modelo predeterminado (el más adecuado para la API de Perplexity)
return "sonar"
def get_perplexity_api_key():
"""Obtener la clave API de Perplexity desde una variable de entorno o archivo."""
@ -147,9 +152,7 @@ def query_perplexity(prompt, model="o1"):
# Verificar los modelos disponibles en Perplexity - 2025
# Modelos válidos: sonar, mistral-7b, llama-3-sonar-small, llama-3-sonar-medium, llama-3-70b, mixtral-8x7b, codellama-70b
# Si 'o1' no funciona, probar con 'sonar' o 'mistral-7b'
if model == "o1":
model = "sonar" # Usar sonar como fallback en caso de que o1 no esté disponible
# Usamos el modelo 'sonar' de Perplexity para mejor compatibilidad y resultados
data = {
"model": model,