Le timestamp est un compteur universel et international qui est très utilisé en informatique, plus précisement dans la programmation.
Une journée contient 86 400 000 millisecondes.
Ce compteur définit des dates précises à partir d'un entier qui s'incrémente toutes les millisecondes. Il permet de comparer facilement plusieurs dates entre elles.
Il ne compte pas les changements d'heures ni de fuseaux horaires, ce qui est avantageux en informatique pour comparer des dates ou pour calculer de façon fiable des dates entre elles peu importe la différence de fuseaux horaires entre les deux dates analysées.
L'epoch
La date est mesurée en millisecondes depuis minuit le 01 janvier 1970 UTC (« epoch Unix »). L'epoch, d'après le site du jargon français, est la date et l'heure correspondant à la valeur « 0 » du système d'horodatage d'un logiciel, en particulier d'un système d'exploitation, donc son « origine des temps ». Aucune date antérieure ne peut être codée .
Cela n'implique pas que d'autres logiciels, même animés par le logiciel considéré, ne peuvent disposer de leurs propres epoch. L'epoch d'un système d'exploitation, par exemple, n'interdit pas aux applications de représenter des dates antérieures par leurs moyens propres, toutefois la limite du système d'exploitation interdira par exemple de dater librement des fichiers (en fait c'est encore plus compliqué car l'epoch d'un système de fichiers peut être distinct de celui du système d'exploitation).
Sous Unix, l'epoch correspond au 1er janvier 1970 à 0 heures UTC, sous VMS, au 17 novembre 1858 sous Mac OS (avant Mac OS X, qui est un Unix), au 1er janvier 1904, sous la plupart des MS-DOS au 1er janvier 1900, sous Windows au 1 janvier 1601...
Par extension une « date epoch » (également appelée epoch date, epoch time ou epoch timestamp) désigne une date exprimée par un entier égal au nombre de secondes écoulées depuis l'epoch. Pour ajouter à la confusion c'est parfois abrégé epoch