كلنا يعلم أن اجهزة الحاسب الآلي والجوالات وغيرها من الأجهزة الإلكترونية
لاتعرف سوى 0 و 1
ولكي نمثل هذه الحروف التي تقرؤها فإن الكمبيوتر يحول كل حرف إلى بايت أو مجموعة من البايت
عند ظهور الحاسب الآلي في الغرب كان يدعم الحروف الإنجليزية فحسب وكان الترميز السائد هو ASCII ( الترميز القياسي الأمريكي )
https://upload.wikimedia.org/wikipedia/commons/thumb/d/dd/ASCII-Table.svg/1107px-ASCII-Table.svg.png
بيد أن الشركات مالبثت أن قررت دعم لغات وثقافات عالمية لهذا ظهر الترميز العالمي الموسع Unicode وهو يستخدم وحدتين اثنتين (bytes 2) لتمثل كل حرف ورمز بدلا من بايت واحد
مما سمح لإضافة مايزيد عن 100 ألف حرف ورمز مقسمة إلى مجموعات حسب اللغة أو المنطقة .. وتسمى هذه المجموعات بصفحات الكود code Pages
ومع تطور طرق نقل البيانات والشبكات
ظهرت أنواع متقدمة من الترميز الموسعUnicode مثل UTF-7 و UTF-8 وUTF-16 و UTF-32
حيث تمثل الأرقام عدد الخانات الثنائية التي يستخدمها الترميز لنقل البيانات عبر الشبكة
- لاحظ ان استخدام ترميز خاطئ لفك تشفير حروف قد يظهر نص مكون من أحرف غريبة أو علامات استفهام ؟؟؟؟؟؟