@pemile
1) Formellement, Unicode est défini sur 32 bits.
Mais il y a plusieurs implantations :
— UTF-8 : codage d’Unicode sur 1 à 4 octets, c’est le codage pratiquement toujours utilisé. Pour la rétrocompatibilité, le codage sur un octet correspond à l’ASCII. C’est le codage pratiquement toujours utilisé.
J’ai écrit mes première lignes en FORTRAN en 1964, alors, même à la retraite, Je suis en train de développer un éditeur de texte, sous Linux, en C, en utilisant curses (ce qui permet une utilisation hors mode graphique) et le codage UTF-8.
— UTF-16 : n’est plus utilisé,
— UTF-32 : se confond avec la définition unicode.
2) Vous dites « Là, il s’agit de l’ordre de rangement des »mots« machine (composés de plusieurs octets) de 32 ou 64 bits. ».
C’est une autre façon de dire la même chose que moi. Le processeur lit la mémoire de gauche à droite, raison pour laquelle les bits de poids faible sont à gauche.
3) Définition de kilo, mega, ..., Au temps pour moi, j’avais oublié la norme de 1998 définissant le KiB.
Ma vie, mon œuvre : j’ai écrit mes première lignes en FORTRAN en 1964, alors, même à la
retraite, je continue à m’amuse à programmer.
Je suis en train de développer un éditeur de texte, sous
Linux, en C, en utilisant curses (ce qui permet une utilisation hors
mode graphique) et le codage UTF-8.
Ce n’est pas totalement dans le vide, mon fils a une petite entreprise de développement de logiciel embarqué (les pommes ne tombent pas loin de l’arbre), alors, il a parfois besoin de ce genre de chose sur des micro-calculateurs.
À part ça, j’ai relu un peu l’article, encore plus foireux que ce que je pensais tout d’abord.