Medelgenomsnittlig Precision (mAP)
Medelgenomsnittlig precision (mAP) är en nyckelmetrik inom datorseende för att utvärdera objektigenkänningsmodeller, och fångar både detekterings- och lokaliser...
Medelfel (MAE) mäter den genomsnittliga storleken på förutsägelsefel i regressionsmodeller och erbjuder ett enkelt och tolkbart sätt att utvärdera modellens noggrannhet.
Medelfel (MAE) är ett nyckelmått inom maskininlärning för att utvärdera regressionsmodeller och mäter den genomsnittliga felstorleken utan att ta hänsyn till riktningen. Det är robust mot avvikare och lätt att tolka i målvariabelns enhet, vilket gör det användbart för modellevaluering.
Medelfel (MAE) är ett grundläggande mått inom maskininlärning, särskilt använt vid utvärdering av regressionsmodeller. Det mäter den genomsnittliga storleken på felen i en uppsättning förutsägelser utan att ta hänsyn till om de är positiva eller negativa. Detta mått ger ett enkelt sätt att kvantifiera en modells noggrannhet genom att beräkna medelvärdet av de absoluta skillnaderna mellan förutsagda värden och faktiska värden. Till skillnad från vissa andra mått kvadrerar inte MAE felen, vilket innebär att alla avvikelser ges lika stor betydelse oavsett storlek. Denna egenskap gör MAE särskilt användbart när man vill bedöma storleken på förutsägelsefel utan att vikta över- eller underskattningar olika.
Hur beräknas MAE?
Formeln för MAE uttrycks som:
Där:
MAE beräknas genom att ta det absoluta värdet av varje förutsägelsefel, summera dessa absoluta fel och sedan dividera med antalet förutsägelser. Detta resulterar i en genomsnittlig felstorlek som är lätt att tolka och kommunicera.
MAE har stor betydelse inom AI-träning tack vare sin enkelhet och tolkbarhet. Fördelarna inkluderar:
Modellevaluering:
I praktiken används MAE för att utvärdera prestandan hos regressionsmodeller. Vid förutsägelse av huspriser innebär till exempel ett MAE på 1 000 kr att de förutsagda priserna i genomsnitt avviker med 1 000 kr från de faktiska priserna.
Jämförelse av modeller:
MAE fungerar som ett tillförlitligt mått för att jämföra prestandan hos olika modeller. Ett lägre MAE indikerar bättre modellprestanda. Om till exempel en Support Vector Machine (SVM) ger ett MAE på 28,85 grader vid temperaturförutsägelse, medan en Random Forest-modell ger ett MAE på 33,83 grader, anses SVM-modellen vara mer exakt.
Reella tillämpningar:
MAE används inom olika tillämpningar, såsom strålterapi, där det används som förlustfunktion i djupinlärningsmodeller som DeepDoseNet för 3D-dosförutsägelse och överträffar modeller som använder MSE.
Miljömodellering:
Inom miljömodellering används MAE för att bedöma osäkerheter i förutsägelser och ger en balanserad representation av fel jämfört med RMSE.
Mått | Bestraffar stora fel | Enhet för mätning | Känslighet för avvikare | När ska det användas |
---|---|---|---|---|
Medelfel (MAE) | Nej | Samma som målvariabeln | Mindre känslig | När tolkbarhet och robusthet mot avvikare behövs |
Mean Squared Error (MSE) | Ja (kvadrerar fel) | Kvadrerad enhet | Mer känslig | När stora fel är särskilt oönskade |
Root Mean Squared Error (RMSE) | Ja (kvadrerar & rotar fel) | Samma som målvariabeln | Mer känslig | När stora avvikelser är kritiska |
Mean Absolute Percentage Error (MAPE) | Nej | Procent (%) | Varierar | När relativ procenthaltig fel är viktig |
MAE kan beräknas med hjälp av Pythons sklearn-bibliotek på följande sätt:
from sklearn.metrics import mean_absolute_error
import numpy as np
# Exempeldata
y_true = np.array([1, 2, 3, 4, 5])
y_pred = np.array([1.5, 2.5, 2.8, 4.2, 4.9])
# Beräkna MAE
mae = mean_absolute_error(y_true, y_pred)
print("Medelfel:", mae)
MAE är idealiskt när:
Även om MAE är mångsidigt och allmänt använt har det vissa begränsningar:
Medelfel (MAE) är ett mycket använt mått inom AI-träning, särskilt vid bedömning av prediktiva modellers noggrannhet. Nedan följer en sammanfattning av aktuell forskning där MAE används:
Generativ AI för snabb och noggrann statistisk beräkning av vätskor
Denna artikel presenterar en generativ AI-algoritm vid namn GenCFD, utformad för snabb och noggrann statistisk beräkning av turbulenta flöden. Algoritmen använder en villkorlig score-baserad diffusionsmodell för att uppnå högkvalitativa approximationer av statistiska storheter, såsom medelvärde och varians. Studien belyser att traditionella operatorbaserade modeller, som ofta minimerar medelfel, tenderar att återge medelflödeslösningar. Författarna presenterar teoretiska insikter och numeriska experiment som visar algoritmens överlägsna prestanda för att generera realistiska vätskeflödesprover. Läs artikeln
AI-baserad dynamisk felupptäckt och prestanda-bedömning i solcellssystem
Denna forskning fokuserar på att förbättra felupptäckt i solcellssystem med hjälp av AI, särskilt genom maskininlärningsalgoritmer. Studien betonar vikten av att noggrant karaktärisera effektförluster och upptäcka fel för att optimera prestandan. Den rapporterar utvecklingen av en beräkningsmodell som uppnår ett medelfel på 6,0% vid daglig energiberäkning, vilket visar AI:s effektivitet för felupptäckt och systemprestanda. Läs artikeln
Beräkningsmässigt effektiv AI-baserad onlineuppskattning av batteriers hälsotillstånd
Artikeln undersöker datadrivna metoder för att uppskatta hälsotillståndet (SoH) hos batterier i e-mobilitetstillämpningar. Den diskuterar användningen av maskininlärningstekniker för att förbättra noggrannheten i SoH-uppskattningar, som traditionellt utförs med modellbaserade metoder. Forskningen belyser möjligheten att minska medelfel i batterihanteringssystem genom avancerade AI-algoritmer. Läs artikeln
Medelfel (MAE) är ett mått inom maskininlärning som mäter den genomsnittliga storleken på fel mellan förutsagda och faktiska värden i regressionsmodeller, utan att ta hänsyn till riktningen.
MAE beräknas genom att ta det absoluta värdet av varje förutsägelsefel, summera dessa värden och dividera med antalet förutsägelser, vilket ger den genomsnittliga felstorleken.
Använd MAE när du vill ha ett enkelt och tolkbart mått på genomsnittligt fel i samma enhet som din målvariabel, särskilt när det finns avvikare eller när du inte vill bestraffa stora fel extra mycket.
MAE ger ingen information om felens riktning och behandlar alla fel lika, vilket kanske inte är optimalt när större fel borde bestraffas mer.
Till skillnad från MSE och RMSE, som bestraffar större fel mer på grund av kvadrering, behandlar MAE alla fel lika och är mindre känslig för avvikare, vilket gör det mer robust för datamängder med extrema värden.
Smarta chattbottar och AI-verktyg under ett och samma tak. Koppla intuitiva block för att omvandla dina idéer till automatiserade Flows.
Medelgenomsnittlig precision (mAP) är en nyckelmetrik inom datorseende för att utvärdera objektigenkänningsmodeller, och fångar både detekterings- och lokaliser...
Träningsfel inom AI och maskininlärning är skillnaden mellan en modells förutsagda och faktiska utdata under träningen. Det är en nyckelmetrik för att utvärdera...
Generaliseringsfel mäter hur väl en maskininlärningsmodell förutspår osedda data, balanserar bias och varians för att säkerställa robusta och pålitliga AI-appli...