Lesen geht schneller, hängt allerdings von der CPU, der Datenmenge, dem Kommunikationsweg etc. ab, ob dies das hergibt.
Für die zeitgesteuerte Speicherung ist ein Sekundenraster vorgesehen. Mit dieser Auflösung steht auch der Zeitstempel in der csv-Datei.
Wenn das Ganze nicht zeitgesteuert sondern über die SPS getriggert wird, geht es natürlich schneller. Am besten mal mit der Demoversion testen.
Die grundsätzliche Frage ist natürlich, was und wieviel muss denn wirklich in welchem Zeitraster gespeichert werden? Wäre eventuell ein anderer Algorithmus sinnvoller? Z. B. Pufferung mehrerer Datensätze in der SPS und dann gemeinsames Archivieren. Wer soll das ganze Datengrab auswerten? Oder werden aus den Daten nur Kenngrößen ermittelt? Wenn ja, warum dann nicht gleich vor dem Archivieren?
Ach ja, beim Speicherintervall von 200 ms stehen nach gut 3,5 Stunden mehr Datensätze in der csv-Datei als mein Freund Bill mit seinem Excel verarbeiten kann. (EasyLog kann zum Glück den Dateinamen mit entsprechenden variablen Anteilen versehen und somit immer wieder eine neue Datei und/oder ein neues Verzeichnis erzeugen).