Aktuell werden lange Dokumente bei Inference vom Span Classifier truncated. D.h. lange Dokumente werden ggf. nicht vollständig analysiert! Truncation ist mittels Chunking schon beim Training korrekt gelöst, vielleicht können wir die Logik einfach bei der Inference übernehmen