Anthropic abre la «caja negra» para ver cómo se le ocurren a la inteligencia artificial las cosas que dice
11.08.2023 01:16
© Reuters. Anthropic abre la «caja negra» para ver cómo se le ocurren a la inteligencia artificial las cosas que dice
Anthropic, la organización de investigación en inteligencia artificial responsable del gran modelo de lenguaje (LLM) Claude, acaba de publicar una investigación histórica sobre cómo y por qué los chatbots de IA deciden dar las respuestan que dan.
En el centro de la investigación del equipo se encuentra la cuestión de si los sistemas LLM como Claude, ChatGPT de OpenAI y Bard de Google (NASDAQ:) se basan en la «memorización» para generar resultados, o si existe una relación más profunda entre los datos de entrenamiento, el ajuste fino y lo que finalmente se emite.
On the other hand, individual influence queries show distinct influence patterns. The bottom and top layers seem to focus on fine-grained wording while middle layers reflect higher-level semantic information. (Here, rows correspond to layers and columns correspond to sequences.) pic.twitter.com/G9mfZfXjJT
Lea el artículo completo en Cointelegraph