Ny studie avslöjar att vissa kan ge LLM ger vilseledande förklaringar
Forskare från Microsoft och MIT har utvecklat en banbrytande metod för att avgöra när AI-system ljuger eller ger vilseledande förklaringar. Den nya tekniken, som kallas ”causal concept faithfulness”, kan avslöja när stora språkmodeller (LLM) ger plausibla men opålitliga förklaringar för sina beslut. Problemet med AI:s förklaringar AI-system som ChatGPT och GPT-4 kan ge svar som […] The post Ny studie avslöjar att vissa kan ge LLM ger vilseledande förklaringar first appeared on AI nyheter.

Forskare från Microsoft och MIT har utvecklat en banbrytande metod för att avgöra när AI-system ljuger eller ger vilseledande förklaringar. Den nya tekniken, som kallas ”causal concept faithfulness”, kan avslöja när stora språkmodeller (LLM) ger plausibla men opålitliga förklaringar för sina beslut. Problemet med AI:s förklaringar AI-system som ChatGPT och GPT-4 kan ge svar som […]
The post Ny studie avslöjar att vissa kan ge LLM ger vilseledande förklaringar first appeared on AI nyheter.