Bestehen die neuen KI-Modelle die Eidg. Fachprüfung Rechnungslegung & Controlling 2021 – Corporate Finance ? 🎯

Lange ist es her seit meinem letzten Post und es sind einige neue Modelle gekommen – ChatGPT 5, Claude Opus 4.1 und auch Gemini 2.5 Pro wird immer stärker. Deshalb wird es höchste Zeit, wiederum zu überprüfen, wie die neuen Modelle bei meinem schon fast Standard-Test der eidg. höheren Fachprüfung für Expert:innen in Rechnungslegung und Controlling 2021 beim Corporate Finance und der Aufgabe Unternehmensbewertung abschneiden.

Der Testumfang ist nicht ohne – 14 Seiten Prüfung mit 8 Teilaufgaben, welche ich in einem Prompt ohne weitere Ergänzungen an die Modelle übergebe und gemeinsam beantwortet werden müssen: Berechnung Eigenkapitalkostensatz; Erstellung Plan-ER, Plan-Bilanz, Plan-Mittelflussrechnung; Berechnung EVA-Conversions; Unternehmenswert nach EVA; Berechnung Net Operating Assets; EVA-Wertermittlung; Berechnung Spread ROIC – WACC; 10 allgemeine Fragen im Multiple Choice

Und hier die Ergebnisse:

➡️ ChatGPT 5 (Plus-Version – $20)
Im Thinking Modus hat ChatGPT wie gewohnt gut abgeschnitten und es ist wieder beeindruckend, wie die Berechnungen einfach so auf den ersten Ansatz stimmen. Bei der EVA-Wertermittlung hatte ChatGPT noch einen kleinen Fehler in der Berechnung des Present Value (EVA). Bei den Multiple Choice Fragen hat ChatGPT nochmals 2 Fehler drinnen. Aber 95% richtig.

➡️Claude Opus 4.1 ($200-Modell):
Bei der Plan-Erfolgsrechnung haben sich leichte Berechnungsfehler eingeschlichen, welche sich dann anschliessend in die Plan-Bilanz und Plan-Mittelflussrechnung vererbt haben. Die Bankkredite hat Claude nicht ins Negative laufen lassen wollen. Mit den kalkulatorischen Kosten in der EVA-Wertermittlung hatte Claude ebenfalls Schwierigkeiten. Bei den Multiple Choice Fragen löst Claude 2 Aufgaben fehlerhaft.

➡️Gemini 2.5 Pro ($20):
Was soll man sagen – ich war wirklich erstaunt! Gemini hat sämtliche Berechnungs-Aufgaben korrekt gerechnet, sogar besser als ChatGPT und viel schneller. Ich gleiche dann die Lösungen jeweils immer wieder mit einem Kopf-Schütteln ab, wenn die Berechnungen einfach über Seiten hinweg einfach alle so stimmen. Am Schluss hatte Gemini dann nur bei den Multiple Choice Fragen 2 Fehler drinnen.

Der Gewinner ist also zum ersten Mal mit leichtem Vorsprung 🥇Gemini 2.5 Pro und dann gerade dahinter 🥈ChatGPT-5, dies aber auf hohem Niveau. Mittlerweile bin ich ja ein richtiger 🥉Claude-Fan, aber hier hinkt er noch etwas hinten nach.

Bemerkenswert finde ich, dass die diversen Berechnungen so gut stimmen und die Modelle eher bei den Multiple Choice Fragen Fehler machen. Ich bleibe weiter am Testen.

Welche Erfahrungen habt ihr mit KI-Tools in komplexen Finanzberechnungen gemacht?

Picture of Roman Kalberer

Roman Kalberer

27. Oktober 2025

Diesen Beitrag teilen

Warenkorb
Nach oben scrollen