Anthropic Revela el Modo 'Ultrapensamiento' de Claude Code

2025-04-20

Anthropic publicó una extensa documentación sobre las mejores prácticas para su herramienta de agente de codificación Claude Code CLI. Un consejo fascinante revela que usar palabras como "think", "think hard", etc., activa modos de pensamiento extendidos. Estas frases se correlacionan directamente con diferentes presupuestos de pensamiento; "ultrathink" asigna 31999 tokens, mientras que "think" usa solo 4000. El análisis del código muestra que estas palabras clave activan funciones que asignan recuentos de tokens variables, afectando la profundidad de pensamiento y la salida de Claude. Esto sugiere que "ultrathink" no es una característica del modelo Claude en sí, sino una mejora específica de Claude Code.

Leer más
IA

Rastreo de Feed Atom de Modelos Ollama Mejorado con Gemini 2.5 Pro

2025-03-26

Esta publicación describe la creación de un feed Atom impulsado por GitHub Actions y GitHub Pages que extrae datos de modelos recientes de la página de modelos más recientes de Ollama. Inicialmente construido usando Claude para convertir HTML a Atom, el script se refinó utilizando Google Gemini 2.5 Pro. La actualización divide la salida en dos feeds: uno que contiene todos los modelos y otro solo con los 20 más recientes, mejorando la eficiencia y la usabilidad.

Leer más
Desarrollo rastreo de modelos

¿El modelo de código abierto OLMo-2 supera al GPT-3.5? ¡Configuración sencilla para Mac!

2025-03-18
¿El modelo de código abierto OLMo-2 supera al GPT-3.5? ¡Configuración sencilla para Mac!

El modelo de lenguaje de código abierto OLMo-2, con 32 mil millones de parámetros, afirma superar a GPT-3.5-Turbo y GPT-4 mini. Todos los datos, código, pesos y detalles están disponibles libremente. Esta publicación detalla una configuración sencilla para ejecutarlo en un Mac usando el plugin llm-mlx. Descarga el modelo de 17 GB con unos pocos comandos e interactúa en chats o genera imágenes; el ejemplo muestra la generación de un SVG de un pelícano en bicicleta.

Leer más
IA

Instalación Inteligente de Aider: Evitando Entornos Virtuales

2025-03-06

La herramienta de línea de comandos Aider, de Paul Gauthier, ofrece un método de instalación innovador que evita las complejidades de los entornos virtuales para los usuarios finales. Un simple comando `pip install aider-install && aider-install` utiliza la herramienta `uv` para instalar un entorno Python 3.12 independiente, instalando Aider dentro de él y configurando automáticamente la variable de entorno PATH. Esto proporciona una experiencia de instalación segura y fácil para los usuarios principiantes de Python, eliminando pasos de configuración complejos.

Leer más
Desarrollo

Alucinaciones de código LLM: no es el fin del mundo

2025-03-02

Una queja común entre los desarrolladores que utilizan LLM para el código es la aparición de 'alucinaciones': el LLM inventa métodos o bibliotecas inexistentes. Sin embargo, el autor argumenta que esto no es un fallo fatal. Las alucinaciones de código son fácilmente detectables mediante errores del compilador/intérprete y se pueden corregir, a veces automáticamente mediante sistemas más avanzados. El riesgo real radica en errores no detectados que solo se revelan durante la ejecución, lo que requiere sólidas habilidades de prueba manual y QA. El autor aconseja a los desarrolladores que mejoren sus habilidades de lectura, comprensión y revisión de código y ofrece consejos para reducir las alucinaciones, como probar diferentes modelos, utilizar el contexto de manera eficaz y elegir tecnologías establecidas. La capacidad de revisar código generado por LLM se presenta como una valiosa formación de habilidades.

Leer más
Desarrollo

Modelo LLM de menos de 100 MB ahora instalable con pip: Presentamos llm-smollm2

2025-02-07
Modelo LLM de menos de 100 MB ahora instalable con pip: Presentamos llm-smollm2

Un nuevo plugin, llm-smollm2, incluye un modelo LLM SmolLM2-135M-Instruct cuantizado de menos de 100 MB, lo que lo hace instalable con pip. El autor detalla el proceso de creación, desde encontrar un modelo adecuado de menos de 100 MB (limitado por las restricciones de tamaño de PyPI) hasta suprimir los registros detallados de llama-cpp-python y empaquetarlo para PyPI. Aunque las capacidades del modelo son limitadas, se presenta como una herramienta de aprendizaje valiosa para comprender la tecnología LLM.

Leer más

Documento de capacitación de IBM perdido: las computadoras no pueden ser responsables (1979)

2025-02-03
Documento de capacitación de IBM perdido: las computadoras no pueden ser responsables (1979)

Una página legendaria de una capacitación interna de IBM de 1979 resurgió en línea, afirmando: 'Una computadora nunca puede ser considerada responsable; por lo tanto, una computadora nunca debe tomar una decisión de gestión'. La fuente original se perdió, supuestamente destruida por una inundación. Esta declaración resuena poderosamente en nuestra era impulsada por la IA, lo que lleva a la reflexión sobre la responsabilidad y la toma de decisiones de la IA.

Leer más

Solicitud de empleo en Anthropic: no se permiten asistentes de IA

2025-02-03

El formulario de solicitud de empleo de Anthropic prohíbe explícitamente el uso de asistentes de IA durante el proceso de solicitud. La empresa desea evaluar el interés genuino de los candidatos en Anthropic y sus habilidades de comunicación sin mediación de IA. Esto garantiza una evaluación justa y auténtica de las habilidades y los procesos de pensamiento de los candidatos.

Leer más

OpenAI lanza o3-mini: Un LLM potente y económico

2025-02-01

OpenAI ha lanzado el nuevo modelo de lenguaje o3-mini, que destaca en el benchmark de programación competitiva Codeforces, superando significativamente a GPT-4o y o1. Si bien no es superior en todos los aspectos, su bajo precio (1,10 $/millón de tokens de entrada, 4,40 $/millón de tokens de salida) y su límite de salida de tokens excepcionalmente alto (100.000 tokens) lo hacen altamente competitivo. OpenAI planea integrarlo en ChatGPT para búsqueda web y resumen, y el soporte ya está disponible en LLM 0.21, pero actualmente está limitado a usuarios de nivel 3 (al menos 100 $ gastados en la API). o3-mini ofrece a los desarrolladores una opción de LLM potente y económica.

Leer más
IA

llama.cpp WASM: Aumento de velocidad 2x gracias a SIMD optimizado

2025-01-28

El blog de Simon Willison destaca una mejora significativa en llama.cpp: un aumento de velocidad del 2x para la versión WASM, logrado mediante la optimización de instrucciones SIMD. Sorprendentemente, el 99% del código fue generado por la herramienta de programación asistida por IA DeepSeek R1. DeepSeek R1 tardó entre 3 y 5 minutos en 'pensar' en cada indicación, ayudando al desarrollador a mejorar el plugin llm_groq.py y a eliminar elegantemente el model_map, simplificando el código. Esto demuestra el inmenso potencial de la IA en la optimización y refactorización de código.

Leer más

Qwen 2.5 de Alibaba: LLM con contexto de 1 millón de tokens

2025-01-26

Alibaba lanzó una actualización importante de su modelo de lenguaje grande de código abierto, Qwen 2.5, con una ventana de contexto asombrosa de 1 millón de tokens. Esto se logra mediante una nueva técnica llamada Dual Chunk Attention. Dos modelos están disponibles en Hugging Face: versiones de 7B y 14B de parámetros, ambas requieren una VRAM significativa: al menos 120 GB para el modelo de 7B y 320 GB para el de 14B. Si bien se pueden usar para tareas más cortas, Alibaba recomienda usar su framework vLLM personalizado. Están surgiendo versiones cuantizadas GGUF, que ofrecen tamaños más pequeños, pero podrían existir problemas de compatibilidad con longitudes de contexto completas. Un bloguero intentó ejecutar la versión GGUF en una Mac usando Ollama, encontrando algunos desafíos y prometiendo una actualización futura.

Leer más

Predicciones de IA/LLM: A 1, 3 y 6 años vista

2025-01-11

Simon Willison compartió sus predicciones para el desarrollo de IA/LLM en los próximos 1, 3 y 6 años en el podcast Oxide and Friends. Anticipa que los agentes de IA de propósito general no se materializarán pronto, pero los asistentes de código e investigación prosperarán. Dentro de tres años, los reportajes de investigación asistidos por IA podrían ganar un Premio Pulitzer, junto con leyes de privacidad más estrictas. Seis años después, la IA podría producir arte increíble, pero también podría provocar disturbios civiles generalizados, dependiendo del desarrollo y el impacto económico de la AGI/ASI. Willison enfatiza su poca confianza en estas predicciones, ofreciéndolas como un punto interesante de reflexión futura.

Leer más

Mi Enfoque para un Blog de Enlaces: ¡Más de 7.600 Publicaciones!

2025-01-06
Mi Enfoque para un Blog de Enlaces: ¡Más de 7.600 Publicaciones!

Simon Willison comparte su enfoque para mantener un blog de enlaces exitoso durante más de dos décadas. Describe sus métodos para la curaduría y presentación de enlaces, enfatizando el valor de agregar comentarios perspicaces, dar el crédito adecuado a los creadores y usar tecnología (Django, Markdown, Claude) para mejorar la experiencia. Argumenta que el blog de enlaces es una forma de bajo esfuerzo y alto rendimiento de contribuir significativamente al discurso en línea e invita a otros a adoptar la práctica.

Leer más

El acuerdo de 95 millones de dólares de Apple con Siri: ¿Más desinformación que espionaje por micrófono?

2025-01-03

Apple llegó a un acuerdo en una demanda por 95 millones de dólares por acusaciones de que las grabaciones de Siri se utilizaron para publicidad dirigida, a pesar de negar irregularidades. El autor argumenta que la precisión de la orientación de los anuncios probablemente se deba más a la recopilación de datos de la aplicación que al espionaje por micrófono. Sin embargo, la evidencia anecdótica de anuncios que coinciden con las conversaciones probablemente alimentará las teorías de conspiración en torno a la vigilancia por micrófono, independientemente de la verdad.

Leer más
Tecnología publicidad dirigida

LLMs en 2024: Un año de avances y desafíos

2024-12-31
LLMs en 2024: Un año de avances y desafíos

2024 fue testigo de una notable evolución en los modelos de lenguaje grandes (LLMs). Varias organizaciones superaron el rendimiento de GPT-4, lo que llevó a un aumento dramático de la eficiencia, permitiendo incluso la ejecución de LLMs en computadoras portátiles personales. Los modelos multimodales se volvieron comunes, con capacidades de voz y video emergentes. La generación de aplicaciones impulsada por indicaciones se convirtió en una mercancía, pero el acceso universal a los modelos de primer nivel duró solo unos meses. Si bien los 'agentes' permanecieron esquivos, la importancia de la evaluación se volvió primordial. La biblioteca MLX de Apple sobresalió, contrastando con las funciones decepcionantes de 'Apple Intelligence'. Los modelos de escalamiento de inferencia surgieron, reduciendo costos y mejorando el impacto ambiental, pero también planteando preocupaciones sobre las consecuencias ambientales de las nuevas infraestructuras. Los datos de entrenamiento sintéticos demostraron ser altamente efectivos, pero la usabilidad de LLM siguió siendo un desafío, la distribución del conocimiento permaneció desigual y se necesitan mejores evaluaciones críticas.

Leer más
IA

Alibaba presenta QvQ: un nuevo modelo de razonamiento visual

2024-12-25
Alibaba presenta QvQ: un nuevo modelo de razonamiento visual

Alibaba lanzó recientemente QvQ-72B-Preview, un nuevo modelo de razonamiento visual bajo la licencia Apache 2.0. Diseñado para mejorar las capacidades de razonamiento visual de la IA, QvQ se basa en el modelo de escalado de inferencia QwQ añadiendo procesamiento de visión. Acepta imágenes y prompts, generando procesos de razonamiento detallados y paso a paso. El bloguero Simon Willison probó QvQ, encontrando que tiene éxito en tareas como contar pelícanos, pero es menos preciso en problemas de razonamiento complejos. Actualmente disponible en Hugging Face Spaces, los planes futuros incluyen la implementación local y el soporte para plataformas más amplias.

Leer más

Benchmark de LLM: Pelícano en Bicicleta

2024-12-16

Simon Willison creó un benchmark único de LLM: generar una imagen SVG de un pelícano montando una bicicleta. Este prompt inusual tenía como objetivo probar las habilidades creativas de los modelos sin depender de datos de entrenamiento preexistentes. Probó 16 modelos de OpenAI, Anthropic, Google Gemini y Meta (Llama en Cerebras), revelando variaciones significativas en la calidad de los SVG generados. Algunos modelos produjeron resultados sorprendentemente buenos, mientras que otros tuvieron dificultades.

Leer más

Almacenamiento de horas para eventos humanos: mejores prácticas y desafíos

2024-12-12
Almacenamiento de horas para eventos humanos: mejores prácticas y desafíos

Esta entrada de blog analiza las mejores prácticas para almacenar las horas de los eventos en sitios web de eventos. El autor argumenta que almacenar directamente la hora UTC pierde información crucial, como la intención original del usuario y la ubicación. Un mejor enfoque consiste en almacenar la hora prevista por el usuario y la ubicación del evento, y luego derivar la hora UTC. Ejemplos como el error del usuario, los ajustes de zona horaria internacional y la actualización del horario de verano de Microsoft Exchange de 2007 ilustran la importancia de almacenar la hora prevista por el usuario. El autor recomienda diseñar una interfaz de usuario clara e intuitiva para ayudar a los usuarios a establecer con precisión las horas y ubicaciones de los eventos, haciendo hincapié en la importancia de mantener la intención original del usuario para evitar errores causados por los cambios de zona horaria.

Leer más
2 Next →