Dlaczego korzystamy z Base64?


275

Wikipedia mówi

Schematy kodowania Base64 są powszechnie stosowane, gdy zachodzi potrzeba kodowania danych binarnych, które muszą być przechowywane i przesyłane za pośrednictwem mediów zaprojektowanych do obsługi danych tekstowych. Ma to zapewnić, że dane pozostaną nienaruszone bez modyfikacji podczas transportu.

Ale czy nie chodzi o to, że dane są zawsze przechowywane / przesyłane w formie binarnej, ponieważ pamięć, którą przechowują nasze maszyny, zależy tylko od tego, jak je interpretujesz? Tak więc, niezależnie od tego, czy kodujesz wzór bitowy 010011010110000101101110jak Manw ASCII czy jak TWFuw Base64, ostatecznie zapiszesz ten sam wzór bitowy.

Jeśli ostateczne kodowanie jest w postaci zer i jedynek, a każda maszyna i nośnik może sobie z nimi poradzić, jak ważne jest, czy dane są reprezentowane jako ASCII czy Base64?

Co to znaczy „media przeznaczone do obsługi danych tekstowych”? Potrafią poradzić sobie z plikiem binarnym => poradzą sobie ze wszystkim.


Dzięki wszystkim, myślę, że teraz rozumiem.

Kiedy przesyłamy dane, nie możemy być pewni, że dane będą interpretowane w takim samym formacie, jaki zamierzaliśmy. Wysyłamy więc dane zakodowane w jakimś formacie (np. Base64), który obie strony rozumieją. W ten sposób nawet jeśli nadawca i odbiorca interpretują to samo inaczej, ale ponieważ zgadzają się co do formatu kodowanego, dane nie zostaną źle zinterpretowane.

Z przykładu Marka Byersa

Jeśli chcę wysłać

Hello
world!

Jednym ze sposobów jest wysłanie go w formacie ASCII

72 101 108 108 111 10 119 111 114 108 100 33

Ale bajt 10 może nie być poprawnie interpretowany jako nowy wiersz na drugim końcu. Tak więc używamy podzbioru ASCII do kodowania go w ten sposób

83 71 86 115 98 71 56 115 67 110 100 118 99 109 120 107 73 61 61

co kosztem większej ilości danych przesłanych dla tej samej ilości informacji zapewnia odbiorcy możliwość dekodowania danych w zamierzony sposób, nawet jeśli odbiorca zdarzy się mieć różne interpretacje dla reszty zestawu znaków.


6
Tło historyczne: serwery e-mail były kiedyś 7-bitowymi kodami ASCII. Wiele z nich ustawiłoby wysoki bit na 0, więc trzeba było wysyłać tylko wartości 7-bitowe. Zobacz en.wikipedia.org/wiki/Email#Content_encoding
Harold L

53
Używamy base64, ponieważ jest bardziej czytelny niż Perl
Martin

2
@Martin, żartujesz. Perl jest trudny do odczytania, ale base64 jest w ogóle nieczytelny.
Peter Long,

1
@Lazer Brakuje twojego obrazu
Mick

2
@Lazer, „Ale bajt 10 może nie być poprawnie interpretowany jako nowy wiersz na drugim końcu”. czemu? obie strony zgodziły się na ASCII i muszą interpretować ją poprawnie!
ProgramCpp

Odpowiedzi:


298

Twoim pierwszym błędem jest myślenie, że kodowanie ASCII i kodowanie Base64 są wymienne. Oni nie są. Są wykorzystywane do różnych celów.

  • Kiedy kodujesz tekst w ASCII, zaczynasz od ciągu tekstowego i konwertujesz go na sekwencję bajtów.
  • Gdy kodujesz dane w Base64, zaczynasz od sekwencji bajtów i konwertujesz ją na ciąg tekstowy.

Aby zrozumieć, dlaczego Base64 był niezbędny, potrzebujemy trochę historii komputerów.


Komputery komunikują się w trybie binarnym - 0 i 1 - ale ludzie zazwyczaj chcą komunikować się z bardziej bogatymi formularzami danych, takimi jak tekst lub obrazy. Aby przesłać te dane między komputerami, najpierw należy je zakodować na 0 i 1, wysłać, a następnie ponownie zdekodować. Weźmy jako przykład tekst - istnieje wiele różnych sposobów wykonania tego kodowania. Byłoby o wiele łatwiej, gdybyśmy wszyscy zgodzili się na jedno kodowanie, ale niestety tak nie jest.

Początkowo utworzono wiele różnych kodowań (np. Kod Baudot ), które wykorzystywały inną liczbę bitów na znak, aż w końcu ASCII stało się standardem z 7 bitami na znak. Jednak większość komputerów przechowuje dane binarne w bajtach składających się z 8 bitów każdy, więc ASCII nie nadaje się do przesyłania tego typu danych. Niektóre systemy wyczyściłyby nawet najbardziej znaczący bit. Ponadto różnica w kodowaniu zakończeń linii w różnych systemach oznacza, że ​​znaki ASCII 10 i 13 były również czasami modyfikowane.

Aby rozwiązać te problemy, wprowadzono kodowanie Base64 . Pozwala to zakodować bajty aribtrary do bajtów, o których wiadomo, że można je bezpiecznie przesyłać bez uszkodzenia (znaki alfanumeryczne ASCII i kilka symboli). Wadą jest to, że kodowanie wiadomości przy użyciu Base64 zwiększa jej długość - każde 3 bajty danych jest kodowane do 4 znaków ASCII.

Aby wysłać tekst niezawodnie możesz najpierw zakodować do bajtów stosując kodowanie tekstu do wyboru (na przykład UTF-8) i następnie później Base64 zakodować wynikających danych binarnych na ciąg tekstowy, który jest bezpieczny, aby wysłać zakodowany jako ASCII. Odbiorca będzie musiał odwrócić ten proces, aby odzyskać pierwotną wiadomość. Wymaga to oczywiście, aby odbiorca wiedział, które kodowania zostały użyte, a informacje te często muszą być przesyłane osobno.

Historycznie był używany do kodowania danych binarnych w wiadomościach e-mail, w których serwer e-mail może modyfikować zakończenia linii. Bardziej nowoczesnym przykładem jest użycie kodowania Base64 do osadzania danych obrazu bezpośrednio w kodzie źródłowym HTML . W tym przypadku konieczne jest zakodowanie danych, aby uniknąć interpretowania znaków takich jak „<” i „>” jako znaczniki.


Oto działający przykład:

Chcę wysłać wiadomość tekstową z dwoma wierszami:

dzień dobry
świat!

Jeśli wyślę go jako ASCII (lub UTF-8), będzie to wyglądać następująco:

72 101 108 108 111 10 119 111 114 108 100 33

Bajt 10 jest uszkodzony w niektórych systemach, więc możemy kodować 64 bajty w postaci ciągu Base64:

SGVsbG8sCndvcmxkIQ ==

Które po zakodowaniu przy użyciu ASCII wygląda następująco:

83 71 86 115 98 71 56 115 67 110 100 118 99 109 120 107 73 61 61

Wszystkie bajty tutaj są znanymi bajtami bezpiecznymi, więc jest bardzo małe prawdopodobieństwo, że jakikolwiek system zepsuje ten komunikat. Mogę wysłać to zamiast oryginalnej wiadomości i pozwolić odbiorcy odwrócić proces odzyskiwania oryginalnej wiadomości.


4
„większość nowoczesnych protokołów komunikacyjnych nie uszkadza danych” - chociaż na przykład e-mail może, a agent dostarczający zamienia ciąg znaków „\ nFrom” na „\ n> Od”, gdy zapisuje wiadomość do skrzynki pocztowej. Lub nagłówki HTTP są zakończone znakiem nowej linii bez odwracalnego sposobu ucieczki przed nowymi liniami w danych (kontynuacja linii łączy białe znaki), więc nie można po prostu zrzucić do nich dowolnego ASCII. base64 jest lepszy niż tylko 7-bitowy bezpieczny, jest alfanumeryczny i - = + / bezpieczny.
Steve Jessop

1
„Wadą jest to, że kodowanie wiadomości przy użyciu Base64 zwiększa jej długość - każde 3 bajty danych jest kodowane do 4 bajtów”. Jak wzrasta do 4 bajtów? Czy to nie będzie nadal 3 * 8 = tylko 24 bity?
Lazer,

4
@Lazer: nie. Spójrz na swój przykład - „Man” jest zakodowany w standardzie 64 jako „TWFu”. 3 bajty -> 4 bajty. Jest tak, ponieważ dane wejściowe mogą być dowolnymi z 2 ^ 8 = 256 możliwych bajtów, podczas gdy dane wyjściowe używają tylko 2 ^ 6 = 64 z nich (i =, aby pomóc wskazać długość danych). 8 bitów na kwartał wyjściowy jest „zmarnowany”, aby zapobiec, aby wyjście zawierało jakiekolwiek „ekscytujące” znaki, nawet jeśli wejściowe tak.
Steve Jessop

2
Przydatne może być ponowne utworzenie „Gdy kodujesz dane w Base64, zaczynasz od sekwencji bajtów i konwertujesz je na ciąg tekstowy” jako „Gdy kodujesz dane w Base64, zaczynasz od sekwencji bajtów i konwertujesz je na sekwencja bajtów składająca się tylko z wartości ASCII ". Sekwencja bajtów składająca się tylko ze znaków ASCII jest wymagana przez SMTP, dlatego też Base64 (i drukowane w cudzysłowie) są używane jako kodowania przesyłania treści. Doskonały przegląd!
ALEXintlsos

1
Głosowałbym, ale ma 64 głosy. Przepraszam, to jest idealne.
Jessé Catrinck

61

Kodowanie danych binarnych w XML

Załóżmy, że chcesz osadzić kilka obrazów w dokumencie XML. Obrazy są danymi binarnymi, a dokument XML tekstem. Ale XML nie może obsłużyć osadzonych danych binarnych. Jak to robisz?

Jedną z opcji jest kodowanie obrazów w base64, zamieniając dane binarne na tekst, który XML może obsłużyć.

Zamiast:

<images>
  <image name="Sally">{binary gibberish that breaks XML parsers}</image>
  <image name="Bobby">{binary gibberish that breaks XML parsers}</image>
</images>

ty robisz:

<images>
  <image name="Sally" encoding="base64">j23894uaiAJSD3234kljasjkSD...</image>
  <image name="Bobby" encoding="base64">Ja3k23JKasil3452AsdfjlksKsasKD...</image>
</images>

Analizator składni XML będzie mógł poprawnie przeanalizować dokument XML i wyodrębnić dane obrazu.


Może tak wyglądać stary .mhtformat Microsoft (plik HTML + obrazy w jednym pliku).
Sridhar Sarnobat

38

Dlaczego nie spojrzeć na RFC, która obecnie definiuje Base64 ?

Podstawowe kodowanie danych jest używane w wielu sytuacjach do przechowywania lub przesyłania
danych w środowiskach, które być może ze względów starszych są ograniczone do danych US-ASCII [1]. Kodowanie podstawowe może być również stosowane w nowych aplikacjach, które nie mają wcześniejszych ograniczeń, po prostu dlatego, że umożliwia manipulowanie obiektami za pomocą edytorów tekstu.

W przeszłości różne aplikacje miały różne wymagania i dlatego czasami implementowały podstawowe kodowanie na nieco inne sposoby. Obecnie specyfikacje protokołów czasami używają ogólnie kodowania podstawowego, a w szczególności „base64”, bez dokładnego opisu lub odniesienia. Rozszerzenia wielozadaniowej poczty internetowej (MIME) [4] są często używane jako odniesienie dla base64 bez uwzględnienia konsekwencji zawijania wierszy lub znaków innych niż alfabet. Niniejsza specyfikacja ma na celu ustalenie wspólnych zasad dotyczących alfabetu i kodowania. Miejmy nadzieję, że zmniejszy to niejednoznaczność w innych dokumentach, prowadząc do lepszej interoperacyjności.

Base64 został pierwotnie opracowany jako sposób na dołączanie danych binarnych do wiadomości e-mail jako część Uniwersalnych rozszerzeń poczty internetowej.


26

Nośniki przeznaczone do danych tekstowych są oczywiście również binarne, ale nośniki tekstowe często używają pewnych wartości binarnych dla znaków kontrolnych. Ponadto nośniki tekstowe mogą odrzucać niektóre wartości binarne jako nietekstowe.

Kodowanie Base64 koduje dane binarne jako wartości, które mogą być interpretowane tylko jako tekst w mediach tekstowych i są wolne od jakichkolwiek znaków specjalnych i / lub znaków kontrolnych, dzięki czemu dane zostaną zachowane również w mediach tekstowych.


Tak jak w przypadku Base64, przeważnie zarówno źródło, jak i miejsce docelowe interpretują dane w ten sam sposób, ponieważ najprawdopodobniej będą interpretować te 64 znaki w ten sam sposób, nawet jeśli interpretują znaki sterujące na różne sposoby. Czy to prawda?
Lazer,

6
Dane te mogą nawet zostać zniszczone podczas transportu. Na przykład wiele programów FTP przepisuje zakończenia linii od 13,10 do 10 lub przez versa, jeśli system operacyjny serwera i klienta nie są zgodne, a transfer jest oznaczony jako tryb tekstowy. FTP to tylko pierwszy przykład, który przyszedł mi do głowy, nie jest dobry, ponieważ FTP obsługuje tryb binarny.
Hendrik Brummermann

@nhnb: Myślę, że FTP jest dobrym przykładem, ponieważ pokazuje, że tryb tekstowy jest nieodpowiedni dla rzeczy, które chcą danych binarnych.
jamesdlin,

Co to jest nośnik tekstowy?
Koray Tugay

18

Chodzi o to, że media się sprawdzają kodowania łańcucha, dlatego chcemy upewnić się, że dane są akceptowane przez aplikację obsługującą (i nie zawierają sekwencji binarnej reprezentującej na przykład EOL)

Wyobraź sobie, że chcesz wysłać dane binarne w wiadomości e-mail z kodowaniem UTF-8 - Wiadomość e-mail może nie być wyświetlana poprawnie, jeśli strumień zer i jedynek utworzy sekwencję która nie jest prawidłowa w kodowaniu UTF-8.

Ten sam typ rzeczy dzieje się w adresach URL, gdy chcemy zakodować znaki niepoprawne dla adresu URL w samym adresie URL:

http://www.foo.com/hello mój przyjaciel -> http://www.foo.com/hello%20my%20friend

Jest tak, ponieważ chcemy wysłać przestrzeń przez system, który będzie myślał, że przestrzeń jest śmierdząca.

Wszystko, co robimy, to upewnienie się, że istnieje mapowanie 1 do 1 między znaną dobrą, akceptowalną i nieszkodliwą sekwencją bitów na inną dosłowną sekwencję bitów oraz że aplikacja obsługująca nie rozróżnia kodowania.

W twoim przykładzie manmoże być poprawny ASCII w pierwszej formie; ale często możesz chcieć przesyłać wartości losowo binarne (tj. wysyłając obraz w wiadomości e-mail):

Wersja MIME: 1.0
Treść Opis: „Kodowanie Base64 a.gif”
Typ zawartości: obraz / gif; name = "a.gif"
Content-Transfer-Encoding: Base64
Content-Disposition: załącznik; nazwa_pliku = „a.gif”

Widzimy tutaj, że obraz GIF jest zakodowany w base64 jako część wiadomości e-mail. Klient poczty e-mail odczytuje nagłówki i dekoduje je. Ze względu na kodowanie możemy być pewni, że GIF nie zawiera niczego, co można interpretować jako protokół, i unikamy wstawiania danych, które SMTP lub POP mogą uznać za znaczące.


1
To niesamowite - to wyjaśnienie sprawiło, że kliknęło. Nie chodzi o zaciemnianie ani kompresowanie danych, ale po prostu unikanie używania specjalnych sekwencji, które można interpretować jako protokół.
Patrick Michaelsen,

13

Base64 zamiast ucieczki znaków specjalnych

Dam ci zupełnie inny, ale prawdziwy przykład: piszę kod javascript, aby uruchomić go w przeglądarce. Tagi HTML mają wartości identyfikatora, ale istnieją ograniczenia dotyczące tego, jakie znaki są prawidłowe w identyfikatorze.

Ale chcę, aby mój identyfikator bezstratnie odnosił się do plików w moim systemie plików. Pliki w rzeczywistości mogą zawierać przeróżne dziwne i cudowne postacie od wykrzykników, znaków akcentowanych, tyldy, a nawet emoji! Nie mogę tego zrobić:

<div id="/path/to/my_strangely_named_file!@().jpg">
    <img src="http://myserver.com/path/to/my_strangely_named_file!@().jpg">
    Here's a pic I took in Moscow.
</div>

Załóżmy, że chcę uruchomić taki kod:

# ERROR
document.getElementById("/path/to/my_strangely_named_file!@().jpg");

Myślę, że ten kod zawiedzie po uruchomieniu.

Dzięki Base64 mogę odwoływać się do czegoś skomplikowanego, nie martwiąc się o to, który język zezwala na znaki specjalne, a które wymagają ucieczki:

document.getElementById("18GerPD8fY4iTbNpC9hHNXNHyrDMampPLA");

W przeciwieństwie do korzystania z MD5 lub innej funkcji skrótu, możesz odwrócić kodowanie, aby dowiedzieć się, jakie dokładnie dane były faktycznie przydatne.

Chciałbym wiedzieć o Base64 lata temu. Unikałbym odrywania włosów za pomocą „ encodeURIComponent” istr.replace(‘\n’,’\\n’)

Przesyłanie tekstu przez SSH:

Jeśli próbujesz przesyłać złożone dane przez ssh (np. Plik kropkowy, aby uzyskać personalizacje powłoki), powodzenia w tworzeniu bez bazy 64. W ten sposób możesz to zrobić z bazą 64 (wiem, że możesz użyć SCP, ale wymagałoby to wielu poleceń - co komplikuje powiązania klawiszy dla sshing na serwerze):


12

Jednym z przykładów, kiedy uznałem to za wygodne, była próba osadzenia danych binarnych w XML . Niektóre dane binarne były błędnie interpretowane przez analizator składni SAX, ponieważ mogły to być dosłownie wszystko, w tym znaki specjalne XML. Kodowanie Base64 danych po stronie nadawczej i dekodowanie po stronie odbiorczej rozwiązało ten problem.


1
+1 - ale w żadnym wypadku nie jest to specyficzne dla SAX. Zdarzyłoby się to w każdym parserze XML, tj. DOM lub XLINQ.
Billy ONeal,

1
@Billy: Tak, absolutnie. Właśnie przypadkiem używałem parsera SAX dla tej aplikacji.
Bill the Lizard

Różne silniki, na przykład parser SAX, mogą interpretować niektóre wartości ASCII na różne sposoby (różne znaki sterujące). Chodzi tutaj o użycie podzbioru ASCII o uniwersalnym znaczeniu. Dobrze?
Lazer

1
@Lazer: Racja. Niekodowane dane binarne będą miały przypadkowo znaki sterujące, gdy spróbujesz interpretować je jako ASCII (co w tym przypadku nie było).
Bill the Lizard

10

Większość komputerów przechowuje dane w 8-bitowym formacie binarnym, ale nie jest to wymagane. Niektóre maszyny i media transmisyjne mogą jednocześnie obsługiwać tylko 7 bitów (a może nawet mniej). Takie medium interpretowałoby strumień jako wielokrotność 7 bitów, więc jeśli wyślesz 8-bitowe dane, nie otrzymasz tego, czego oczekujesz po drugiej stronie. Base-64 to tylko jeden ze sposobów rozwiązania tego problemu: kodujesz dane wejściowe w formacie 6-bitowym, wysyłasz je za pośrednictwem nośnika i dekodujesz z powrotem do formatu 8-bitowego na końcu odbierającym.


3
Dlaczego jest problem, jeśli strumień przerywa po 7 bitach. Na koniec druga maszyna będzie miała wszystkie dane odebrane przez strumień, a następnie może wybrać format 8 bitów do jej wyświetlenia? Co jest nie tak z moim umysłem!
mallaudin

6

Oprócz innych (nieco długich) odpowiedzi: nawet ignorując stare systemy, które obsługują tylko 7-bitowy ASCII, podstawowe problemy z dostarczaniem danych binarnych w trybie tekstowym to:

  • Nowe linie są zazwyczaj przekształcane w trybie tekstowym.
  • Należy uważać, aby nie traktować bajtu NUL jako końca ciągu tekstowego, co jest zbyt łatwe do wykonania w dowolnym programie z rodowodem C.

Istnieją również znaki kontrolne, takie jak ^ C, ^ D i ^ Z, które są interpretowane jako koniec pliku na niektórych platformach.
dan04,

5

Co to znaczy „media przeznaczone do obsługi danych tekstowych”?

Że te protokoły zostały zaprojektowane do obsługi tekstu (często tylko tekst angielski ) zamiast danych binarnych (takich jak obrazy .png i .jpg).

Potrafią poradzić sobie z plikiem binarnym => poradzą sobie ze wszystkim.

Ale odwrotność nie jest prawdą. Protokół zaprojektowany do reprezentowania tekstu może niewłaściwie traktować dane binarne, które zawierają:

  • Bajty 0x0A i 0x0D, używane do zakończeń linii, które różnią się w zależności od platformy.
  • Inne znaki kontrolne, takie jak 0x00 (NULL = C string terminator), 0x03 (END OF TEXT), 0x04 (END OF TRANSMISSION) lub 0x1A (DOS end-of-file), które mogą przedwcześnie sygnalizować koniec danych.
  • Bajty powyżej 0x7F (jeśli protokół, który został zaprojektowany dla ASCII).
  • Sekwencje bajtów, które są nieprawidłowe UTF-8.

Dlatego nie można po prostu wysyłać danych binarnych za pomocą protokołu tekstowego. Jesteś ograniczony do bajtów, które reprezentują niekontrolujące znaki ASCII niebędące spacjami, których jest 94. Powodem, dla którego wybrano Base 64, była szybsza praca z potęgami dwóch, a 64 jest największym działającym .

Jedno pytanie. Jak to się dzieje, że systemy wciąż nie zgadzają się na wspólną technikę kodowania, taką jak tak powszechny UTF-8?

Przynajmniej w sieci mają je w większości. Większość stron używa UTF-8 .

Problem na Zachodzie polega na tym, że istnieje wiele starych programów, które zakładają, że 1 bajt = 1 znak i nie mogą współpracować z UTF-8.

Problemem na Wschodzie jest ich przywiązanie do kodowań takich jak GB2312 i Shift_JIS.

I fakt, że Microsoft wciąż nie przestawał wybierać niewłaściwego kodowania UTF. Jeśli chcesz korzystać z interfejsu API systemu Windows lub biblioteki wykonawczej Microsoft C, jesteś ograniczony do UTF-16 lub kodowania „ANSI” regionu. To sprawia, że ​​korzystanie z UTF-8 jest bolesne, ponieważ musisz cały czas konwertować.


5

Dlaczego / Jak korzystamy z kodowania Base64?

Base64 jest jednym ze schematów kodowania binarnego na tekst o wydajności 75%. Służy do tego, aby typowe dane binarne (takie jak obrazy) mogły być bezpiecznie przesyłane starszymi kanałami „nie 8-bitowymi czystymi”. We wcześniejszych sieciach e-mail (do początku lat 90. XX wieku) większość wiadomości e-mail zawierała zwykły tekst w 7-bitowym zestawie znaków US-ASCII. Tak wiele wczesnych standardów protokołu komunikacyjnego zostało zaprojektowanych do pracy nad „7-bitowymi” łączami komunikacyjnymi, „a nie 8-bitowymi czystymi”. Wydajność schematu to stosunek liczby bitów na wejściu do liczby bitów na zakodowanym wyjściu. Szesnastkowy (Base16) jest również jednym ze schematów kodowania binarnego na tekst z wydajnością 50%.

Kroki kodowania Base64 (uproszczone):

  1. Dane binarne są ułożone w ciągłe porcje po 24 bity (3 bajty) każdy.
  2. Każda porcja 24-bitowa jest zgrupowana w czterech częściach po 6 bitów każda.
  3. Każda 6-bitowa grupa jest konwertowana na odpowiadające im wartości znaków Base64, tzn. Kodowanie Base64 przekształca trzy oktety w cztery zakodowane znaki. Stosunek bajtów wyjściowych do bajtów wejściowych wynosi 4: 3 (narzut 33%).
  4. Co ciekawe, te same znaki będą kodowane inaczej w zależności od ich pozycji w grupie trzech oktetów, która jest kodowana w celu wytworzenia czterech znaków.
  5. Odbiorca będzie musiał odwrócić ten proces, aby odzyskać pierwotną wiadomość.

3

Co to znaczy „media przeznaczone do obsługi danych tekstowych”?

W czasach, gdy ASCII rządził światem zajmującym się wartościami innymi niż ASCII, bolała mnie głowa. Ludzie przeskakiwali przez różnego rodzaju obręcze, aby przenieść je przez drut bez utraty informacji.


3
W rzeczywistości ASCII nie było wszędzie używane. Wiele protokołów miało osobny tryb tekstowy i tryb binarny do przesyłania danych, niestety wtedy e-mail nie. Tryb tekstowy jest konieczny właśnie dlatego, że żadne światowe kodowanie tekstu nie rządziło, a nie ASCII; każda sieć komputerowa ma swoje ulubione kodowanie, więc istnieją bramy, których zadaniem jest konwersja wymienianego tekstu na kodowanie lokalne, aby japońska firma mogła wysyłać wiadomości e-mail do amerykańskiego konsultanta biznesowego bez mojibake. Ta konwersja jest oczywiście niepożądana przy wysyłaniu danych binarnych.
Lie Ryan,
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.