Ny studie avslöjar att vissa LLM kan ge vilseledande förklaringar
Forskare från Microsoft och MIT har utvecklat en metod för att avgöra när AI-system ljuger eller ger vilseledande förklaringar. Den nya tekniken, som kallas ”causal concept faithfulness” kan avslöja när stora språkmodeller (LLM) ger plausibla men opålitliga förklaringar för sina beslut. Problemet med AI:s förklaringar AI-system som ChatGPT och GPT-4 kan ge svar som låter […] The post Ny studie avslöjar att vissa LLM kan ge vilseledande förklaringar first appeared on AI nyheter.

Forskare från Microsoft och MIT har utvecklat en metod för att avgöra när AI-system ljuger eller ger vilseledande förklaringar. Den nya tekniken, som kallas ”causal concept faithfulness” kan avslöja när stora språkmodeller (LLM) ger plausibla men opålitliga förklaringar för sina beslut. Problemet med AI:s förklaringar AI-system som ChatGPT och GPT-4 kan ge svar som låter […]
The post Ny studie avslöjar att vissa LLM kan ge vilseledande förklaringar first appeared on AI nyheter.