pineforge
Engine-Vergleich · v0.2 · 50-Strategien-Benchmark

PineForge vs. PyneCore.
Reproduzierbar, nicht rhetorisch.

Jede Zahl auf dieser Seite wird von bash benchmarks/run_all.sh im Open-Source-Repo pineforge-engine erzeugt — gegen den gleichen 41.307-Bar-Feed von Binance ETH/USDT 15m. Reproduktion in ~3 Minuten aus einem frischen Clone, ohne externe API-Calls.

Seite an Seite

Was jede Engine wirklich liefert.

CapabilityPineForgeTradingViewPyneCore
Byte-reproduzierbare Backtests
Nativ kompilierte Runtime
165/167 strikte TV-Parität
Strategien als kompilierte Binaries verkaufen
Zeitlich begrenzte Verkäufer-Lizenzen
An Maschine gebundene Verkäufer-Lizenzen
Open-Source-Runtime, auditierbar
Auf eigenen Daten, eigener Maschine ausführen
Audit-grade Reproduzierbarkeit für Compliance
Native Live-Broker-Integrationen
50-Strategien-Match-Grad

Wie viele von 50 Strategien erreichen die Excellent -Stufe gegenüber TradingView.

C++ static lib
PineForge
49 / 50
Excellent49Stark1Moderat0Schwach0
Python (PyneSys cloud-compiled)
PyneCore
46 / 50
Excellent46Stark1Moderat2Schwach1
TypeScript (LuxAlgo)
PineTS
nur Indikatoren
Strategy-BacktesterPer-Bar-Indikatoren10/10 IndikatorenMatch

Strategy-Execution steht auf der PineTS-Roadmap. Wir benchmarken Indikator-Präzision gegen PineTS, um Floating-Point-Divergenzen einzukreisen.

Die Stufen folgen dem kanonischen PineForge-Parity-Sweep: Excellent = alle vier Dimensionen (Count-Delta, Entry p90, Exit p90, P&L p90) innerhalb strikter Schwellen und ≥95% gematchte Trades; Stark innerhalb 5× strikt; Moderat / Schwach / Minimal jeweils eine Stufe darunter. Strategien mit TradingViews trail_*-Exits laufen mit dem Production-Threshold-Profil (lockerere Exit- und P&L-Toleranzen).

Die 3-Strategien-Lücke

Drei Strategien machen den ganzen Unterschied.

Auf 47 von 50 Referenzstrategien erreichen PineForge und PyneCore beide Excellent. Die 3-Strategien-Lücke ist nicht zufällig — jede Divergenz fällt in dieselbe Kategorie: Bracket-Exits, Trailing-Stops oder Partial Closes. PyneCores Broker-Emulator weicht dort von TV ab; PineForge spiegelt TV Trade für Trade.

06-liquidity-sweep
Bracket-Exit
PineForgeexcellent (88 / 88)·PyneCoremoderat (91)
93 TV-Trades im Fenster. PineForge matcht 88 innerhalb strikter Toleranzen. PyneCore generiert 91 Trades — +3 Count-Drift plus Exit-Price-Drift bei Bracket-Stop-Exits.
07-scalping-strategy
Trailing-Stop (Production-Thresholds)
PineForgeexcellent (412 / 429)·PyneCoremoderat (412)
429 TV-Trades im Fenster. PineForge: 412 gematcht, alle vier Parity-Dimensionen innerhalb der Production-Thresholds. PyneCore: gleicher Match-Count, aber Exit-Price p90 außerhalb der Schwelle — die trail_offset-Arithmetik des Broker-Emulators weicht von TV ab.
49-partial-exit-qty-percent
Partial Close (qty_percent)
PineForgeexcellent (683 / 725)·PyneCoreschwach (2.671)
Die deutlichste Divergenz im ganzen Korpus. 725 TV-Trades, PineForge matcht 683 auf strikter Parität. PyneCore generiert 2.671 Trades — das 3,7-fache des korrekten Counts. Ursache: strategy.close(qty_percent=…) spaltet in PyneCore jeden Entry in Sub-Exits pro Prozent auf, statt einen einzelnen Partial Close zu erzeugen. Offenes Upstream-Issue Stand dieses Commits.
Wo welche Engine gewinnt

Wir verstecken unsere Lücken nicht. Die anderen sollten es auch nicht.

WÄHLE PINEFORGE, WENN
  • Du byte-reproduzierbaren Determinismus brauchst (CI-Gates, Audit-Trails, vertraglich zugesicherte Parität gegenüber Kunden).
  • Du TV-treue Semantik bei Bracket-Exits, Trailing-Stops oder Partial Closes brauchst. Die drei oben genannten Strategien sprechen hier eine eindeutige Sprache.
  • Du nativ kompilierte Geschwindigkeit für Parameter-Sweeps brauchst (Optuna über Tausende Parameter-Kombinationen auf 50k-Bar-Feeds).
  • Du später eine gehostete Studio-UI willst — Code · Backtest · Optimize · Compare · Reports kommen Q4 2026.
  • Du irgendwann kompilierte Strategien an andere Trader verkaufen möchtest. Das Encrypted-Distribution- + License-Server-Design liegt offen im Public Engine Repo.
WÄHLE PYNECORE, WENN
  • Du heute schon Forward-Testing oder Live-Broker-Execution brauchst. PineForge liefert das Q3–Q4 2026; PyneCore hat es jetzt.
  • Du einen vollständig in Python implementierten Strategy-Execution-Path brauchst (tiefere Integration mit NumPy/Pandas-Backtesting-Tooling, Jupyter-native Iteration).
  • Du mit den Bracket-/Trail-/Partial-Exit-Caveats leben kannst (47/50 Strategien nutzen sie nicht).
  • Dir der durchgängige Open-Source-Ethos wichtiger ist als der Closed-Transpiler-Tradeoff. PyneCore ist End-to-End offen; bei PineForge ist die Runtime OSS, das Codegen aber closed.
  • Du gerne Heavy-Contributor bist und ein Projekt willst, in dem deine PRs direkt im Strategy-Execution-Path landen.
Indikator-Präzision

PineForge liegt zwei Größenordnungen näher an TradingView als PyneCore.

Indikator-Drift vs. TradingView (niedriger = näher) PineForgePyneCore
ema21
1.9e-10·1.9e-8
sma21
1.9e-10·1.9e-8
rsi14
9.7e-11·9.7e-9
atr14
2.8e-10·2.8e-8
macd_line
2.3e-10·2.3e-8
macd_signal
2.4e-10·2.4e-8
bb_basis
0·0
bb_upper
1.9e-10·1.9e-8
1e-12absoluter Fehler · log-Skala1e-7

Drift-Werte aus dem In-Tree-Benchmark-Sweep auf HEAD. Methodik

Glaub der Tabelle nicht. Reproduziere sie.

Jede Zahl auf dieser Seite wird von der öffentlichen Benchmark-Suite erzeugt. Keine versteckte Config, keine API-Keys, keine eingecheckten Snapshots. ~3 Minuten aus einem frischen Clone.

# 1. Open-Source-Engine + Benchmark-Suite klonen
git clone https://github.com/fullpass-4pass/pineforge-engine
cd pineforge-engine

# 2. LFS-getrackte OHLCV pullen (2,3 MB)
git lfs install && git lfs pull

# 3. Vollständigen Drei-Engine-Sweep ausführen (~3 Min)
bash benchmarks/run_all.sh

# 4. Ergebnisse lesen — exakt die gleiche Tabelle wie auf dieser Seite
cat benchmarks/results/summary.md