El análisis de los archivos actualizados del cliente Steam, publicado el 7 de abril de 2026, ha revelado la existencia de referencias internas a una herramienta de inteligencia artificial denominada internamente “SteamGPT”. La filtración, documentada por el proyecto SteamTracking en GitHub, aparece en tres archivos de protocolo específicos que contienen nombres de variables coherentes con el uso de modelos de lenguaje de gran escala: términos como “inferencia multicategoría”, “ajuste fino”, “modelos upstream” y “registros para inferencia” se encuentran entre los indicadores identificados.
El análisis detallado de los archivos sugiere que SteamGPT no está concebida como un chatbot para jugadores, sino como una herramienta de eficiencia operativa para los moderadores internos de Valve. Entre las funciones que se derivan del análisis de las variables se encuentran la categorización automatizada de informes de incidentes en partidos multijugador, la síntesis del historial de cuentas sospechosas para facilitar la evaluación humana, y la integración con el sistema Trust Score utilizado en juegos como Counter-Strike 2. Los archivos también contienen referencias que sugieren acceso potencial a la base de datos y los sistemas anti-trampas del juego de disparos.
El enfoque de Valve hacia la inteligencia artificial ha sido históricamente cauteloso pero creciente. Desde 2024, la plataforma permite contenido generado por inteligencia artificial en juegos publicados en Steam, siempre que se informe de ello a los jugadores. A mediados de 2025, cerca de ocho mil títulos habían disclose el uso de herramientas de inteligencia artificial, incluyendo el veinte por ciento de los lanzamientos de ese año. Gabe Newell, co-fundador de Valve, se ha mostrado abiertamente favorable al impacto Transformador de los sistemas de aprendizaje automático en prácticamente todos los sectores empresariales.
A diferencia de iniciativas como Gaming Copilot de Microsoft, SteamGPT parece ser una herramienta de backend cuyo objetivo principal es ayudar a los moderadores humanos de Valve a procesar grandes volúmenes de registros de incidentes y detectar actores fraudulentos con mayor precisión, sintetizando datos complejos de cuentas en resúmenes accionables. La empresa no ha confirmado públicamente la existencia del proyecto, en línea con su política habitual de no comentar desarrollo internos antes de su anuncio oficial.
Lee la historia completa en Ars Technica.
Comentarios (0)
Sé el primero en comentar.