Odkryłem tę osobliwość:
for (long l = 4946144450195624l; l > 0; l >>= 5)
System.out.print((char) (((l & 31 | 64) % 95) + 32));
Wynik:
hello world
Jak to działa?
Odkryłem tę osobliwość:
for (long l = 4946144450195624l; l > 0; l >>= 5)
System.out.print((char) (((l & 31 | 64) % 95) + 32));
Wynik:
hello world
Jak to działa?
Odpowiedzi:
Liczba 4946144450195624
mieści się w 64 bitach, jej reprezentacja binarna to:
10001100100100111110111111110111101100011000010101000
Program dekoduje znak dla każdej 5-bitowej grupy, od prawej do lewej
00100|01100|10010|01111|10111|11111|01111|01100|01100|00101|01000
d | l | r | o | w | | o | l | l | e | h
Dla 5 bitów można przedstawić 2⁵ = 32 znaki. Alfabet angielski zawiera 26 liter, co daje miejsce na 32 - 26 = 6 symboli oprócz liter. Z tym schematem kodyfikacji możesz mieć wszystkie 26 (jeden przypadek) angielskich liter i 6 symboli (między nimi spacja).
W >>= 5
pętli for przeskakuje z grupy do grupy, następnie grupa 5-bitowa zostaje odizolowana ORAZ z liczbą z maską 31₁₀ = 11111₂
w zdaniul & 31
Teraz kod odwzorowuje 5-bitową wartość na odpowiadający jej 7-bitowy znak ascii. To jest trudna część, sprawdź binarne reprezentacje małych liter alfabetu w poniższej tabeli:
ascii | ascii | ascii | algorithm
character | decimal value | binary value | 5-bit codification
--------------------------------------------------------------
space | 32 | 0100000 | 11111
a | 97 | 1100001 | 00001
b | 98 | 1100010 | 00010
c | 99 | 1100011 | 00011
d | 100 | 1100100 | 00100
e | 101 | 1100101 | 00101
f | 102 | 1100110 | 00110
g | 103 | 1100111 | 00111
h | 104 | 1101000 | 01000
i | 105 | 1101001 | 01001
j | 106 | 1101010 | 01010
k | 107 | 1101011 | 01011
l | 108 | 1101100 | 01100
m | 109 | 1101101 | 01101
n | 110 | 1101110 | 01110
o | 111 | 1101111 | 01111
p | 112 | 1110000 | 10000
q | 113 | 1110001 | 10001
r | 114 | 1110010 | 10010
s | 115 | 1110011 | 10011
t | 116 | 1110100 | 10100
u | 117 | 1110101 | 10101
v | 118 | 1110110 | 10110
w | 119 | 1110111 | 10111
x | 120 | 1111000 | 11000
y | 121 | 1111001 | 11001
z | 122 | 1111010 | 11010
Tutaj możesz zobaczyć, że znaki ascii, które chcemy odwzorować, zaczynają się od 7 i 6 bitu set ( 11xxxxx₂
) (z wyjątkiem spacji, która ma włączony tylko szósty bit), możesz kodować OR
5-bitową za pomocą 96
( 96₁₀ = 1100000₂
) i to powinno być wystarczająco dużo, aby wykonać mapowanie, ale to nie zadziała w przypadku przestrzeni (cholera!)
Teraz wiemy, że należy zachować szczególną ostrożność, aby przetwarzać przestrzeń w tym samym czasie, co inne postacie. Aby to osiągnąć, kod włącza 7. bit (ale nie 6.) wyodrębnionej 5-bitowej grupy za pomocą OR 64 64₁₀ = 1000000₂
( l & 31 | 64
).
Jak dotąd grupa 5-bitowa ma postać: 10xxxxx₂
(spacja byłaby 1011111₂ = 95₁₀
). Jeśli potrafimy zmapować przestrzeń na 0
inne wartości, które nie mają wpływu, możemy włączyć szósty bit i to wszystko. Oto, do czego mod 95
dochodzi ta część, spacja 1011111₂ = 95₁₀
, przy użyciu operacji mod (l & 31 | 64) % 95)
cofa się tylko spacja 0
, a następnie kod włącza szósty bit, dodając 32₁₀ = 100000₂
do poprzedniego wyniku, ((l & 31 | 64) % 95) + 32)
przekształcając 5-bitową wartość w prawidłową ascii postać
isolates 5 bits --+ +---- takes 'space' (and only 'space') back to 0
| |
v v
(l & 31 | 64) % 95) + 32
^ ^
turns the | |
7th bit on ------+ +--- turns the 6th bit on
Poniższy kod wykonuje proces odwrotny, biorąc pod uwagę ciąg małych liter (maksymalnie 12 znaków), zwraca 64-bitową długość, której można użyć z kodem OP:
public class D {
public static void main(String... args) {
String v = "hello test";
int len = Math.min(12, v.length());
long res = 0L;
for (int i = 0; i < len; i++) {
long c = (long) v.charAt(i) & 31;
res |= ((((31 - c) / 31) * 31) | c) << 5 * i;
}
System.out.println(res);
}
}
Dodanie wartości do powyższych odpowiedzi. Poniższy skrypt groovy wyświetla wartości pośrednie.
String getBits(long l) {
return Long.toBinaryString(l).padLeft(8,'0');
}
for (long l = 4946144450195624l; l > 0; l >>= 5){
println ''
print String.valueOf(l).toString().padLeft(16,'0')
print '|'+ getBits((l & 31 ))
print '|'+ getBits(((l & 31 | 64)))
print '|'+ getBits(((l & 31 | 64) % 95))
print '|'+ getBits(((l & 31 | 64) % 95 + 32))
print '|';
System.out.print((char) (((l & 31 | 64) % 95) + 32));
}
Tutaj jest
4946144450195624|00001000|01001000|01001000|01101000|h
0154567014068613|00000101|01000101|01000101|01100101|e
0004830219189644|00001100|01001100|01001100|01101100|l
0000150944349676|00001100|01001100|01001100|01101100|l
0000004717010927|00001111|01001111|01001111|01101111|o
0000000147406591|00011111|01011111|00000000|00100000|
0000000004606455|00010111|01010111|01010111|01110111|w
0000000000143951|00001111|01001111|01001111|01101111|o
0000000000004498|00010010|01010010|01010010|01110010|r
0000000000000140|00001100|01001100|01001100|01101100|l
0000000000000004|00000100|01000100|01000100|01100100|d
Ciekawy!
Standardowe znaki ASCII, które są widoczne, mieszczą się w zakresie od 32 do 127.
Dlatego widzisz tam 32 i 95 (127 - 32).
W rzeczywistości każdy znak jest tutaj mapowany na 5 bitów (możesz znaleźć kombinację 5 bitów dla każdego znaku), a następnie wszystkie bity są łączone, aby utworzyć dużą liczbę.
Długie dodatnie to liczby 63-bitowe, wystarczająco duże, aby pomieścić zaszyfrowaną postać 12 znaków. Jest więc wystarczająco duża, aby pomieścić Hello word
, ale w przypadku większych tekstów należy użyć większych liczb lub nawet BigInteger.
W aplikacji chcieliśmy przesłać widoczne znaki angielskie, perskie i symbole przez SMS. Jak widzisz, są32 (number of Persian chars) + 95 (number of English characters and standard visible symbols) = 127
możliwe wartości, które można przedstawić za pomocą 7 bitów.
Przekonwertowaliśmy każdy znak UTF-8 (16-bitowy) na 7 bitów i uzyskaliśmy współczynnik kompresji ponad 56%. Mogliśmy więc wysyłać teksty o podwójnej długości w tej samej liczbie SMS-ów. (W pewnym sensie to samo wydarzyło się tutaj).
| 64
robi.
Zakodowałeś znaki jako wartości 5-bitowe i spakowałeś 11 z nich w 64-bitową długość.
(packedValues >> 5*i) & 31
jest i-tą zakodowaną wartością z zakresu 0-31.
Jak mówisz, najtrudniejsze jest zakodowanie przestrzeni. Małe litery angielskie zajmują ciągły zakres 97-122 w Unicode (i ascii i większości innych kodowań), ale spacja to 32.
Aby temu zaradzić, użyłeś trochę arytmetyki. ((x+64)%95)+32
jest prawie takie samo jak x + 96
(zwróć uwagę, jak bitowe OR jest równoważne dodawaniu w tym przypadku), ale gdy x = 31, otrzymujemy 32
.
Wyświetla „hello world” z podobnego powodu:
for (int k=1587463874; k>0; k>>=3)
System.out.print((char) (100 + Math.pow(2,2*(((k&7^1)-1)>>3 + 1) + (k&7&3)) + 10*((k&7)>>2) + (((k&7)-7)>>3) + 1 - ((-(k&7^5)>>3) + 1)*80));
ale z nieco innego powodu niż ten:
for (int k=2011378; k>0; k>>=2)
System.out.print((char) (110 + Math.pow(2,2*(((k^1)-1)>>21 + 1) + (k&3)) - ((k&8192)/8192 + 7.9*(-(k^1964)>>21) - .1*(-((k&35)^35)>>21) + .3*(-((k&120)^120)>>21) + (-((k|7)^7)>>21) + 9.1)*10));
Bez Oracle
tagu trudno było zobaczyć to pytanie. Przyniosła mnie tu nagroda czynna. Chciałbym, żeby pytanie zawierało również inne istotne tagi technologiczne :-(
Przeważnie pracuję Oracle database
, więc wykorzystałbym trochę Oracle
wiedzy do interpretacji i wyjaśnienia :-)
Zamieńmy liczbę 4946144450195624
na binary
. W tym celu używam małego o function
nazwie dec2bin, czyli dziesiętnego na binarny .
SQL> CREATE OR REPLACE FUNCTION dec2bin (N in number) RETURN varchar2 IS
2 binval varchar2(64);
3 N2 number := N;
4 BEGIN
5 while ( N2 > 0 ) loop
6 binval := mod(N2, 2) || binval;
7 N2 := trunc( N2 / 2 );
8 end loop;
9 return binval;
10 END dec2bin;
11 /
Function created.
SQL> show errors
No errors.
SQL>
Użyjmy funkcji, aby uzyskać wartość binarną -
SQL> SELECT dec2bin(4946144450195624) FROM dual;
DEC2BIN(4946144450195624)
--------------------------------------------------------------------------------
10001100100100111110111111110111101100011000010101000
SQL>
Teraz haczykiem jest 5-bit
konwersja. Rozpocznij grupowanie od prawej do lewej z 5 cyframi w każdej grupie. Otrzymujemy: -
100|01100|10010|01111|10111|11111|01111|01100|01100|00101|01000
Zostałyby nam w końcu tylko 3 cyfry, które kończą się po prawej stronie. Ponieważ w konwersji binarnej mieliśmy łącznie 53 cyfry.
SQL> SELECT LENGTH(dec2bin(4946144450195624)) FROM dual;
LENGTH(DEC2BIN(4946144450195624))
---------------------------------
53
SQL>
hello world
łącznie ma 11 znaków (łącznie ze spacjami), więc musimy dodać 2 bity do ostatniej grupy, w której pozostały nam tylko 3 bity po zgrupowaniu.
Więc teraz mamy: -
00100|01100|10010|01111|10111|11111|01111|01100|01100|00101|01000
Teraz musimy przekonwertować go na 7-bitową wartość ascii. Dla znaków jest to łatwe, wystarczy ustawić szósty i siódmy bit. Dodaj 11
do każdej 5-bitowej grupy powyżej po lewej.
To daje :-
1100100|1101100|1110010|1101111|1110111|1111111|1101111|1101100|1101100|1100101|1101000
Zinterpretujmy wartości binarne, których użyję binary to decimal conversion function
.
SQL> CREATE OR REPLACE FUNCTION bin2dec (binval in char) RETURN number IS
2 i number;
3 digits number;
4 result number := 0;
5 current_digit char(1);
6 current_digit_dec number;
7 BEGIN
8 digits := length(binval);
9 for i in 1..digits loop
10 current_digit := SUBSTR(binval, i, 1);
11 current_digit_dec := to_number(current_digit);
12 result := (result * 2) + current_digit_dec;
13 end loop;
14 return result;
15 END bin2dec;
16 /
Function created.
SQL> show errors;
No errors.
SQL>
Spójrzmy na każdą wartość binarną -
SQL> set linesize 1000
SQL>
SQL> SELECT bin2dec('1100100') val,
2 bin2dec('1101100') val,
3 bin2dec('1110010') val,
4 bin2dec('1101111') val,
5 bin2dec('1110111') val,
6 bin2dec('1111111') val,
7 bin2dec('1101111') val,
8 bin2dec('1101100') val,
9 bin2dec('1101100') val,
10 bin2dec('1100101') val,
11 bin2dec('1101000') val
12 FROM dual;
VAL VAL VAL VAL VAL VAL VAL VAL VAL VAL VAL
---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ----------
100 108 114 111 119 127 111 108 108 101 104
SQL>
Spójrzmy, jakie to postacie: -
SQL> SELECT chr(bin2dec('1100100')) character,
2 chr(bin2dec('1101100')) character,
3 chr(bin2dec('1110010')) character,
4 chr(bin2dec('1101111')) character,
5 chr(bin2dec('1110111')) character,
6 chr(bin2dec('1111111')) character,
7 chr(bin2dec('1101111')) character,
8 chr(bin2dec('1101100')) character,
9 chr(bin2dec('1101100')) character,
10 chr(bin2dec('1100101')) character,
11 chr(bin2dec('1101000')) character
12 FROM dual;
CHARACTER CHARACTER CHARACTER CHARACTER CHARACTER CHARACTER CHARACTER CHARACTER CHARACTER CHARACTER CHARACTER
--------- --------- --------- --------- --------- --------- --------- --------- --------- --------- ---------
d l r o w ⌂ o l l e h
SQL>
Więc co otrzymamy w wyniku?
dlrow ⌂ olleh
To jest hello⌂world w odwrotnej kolejności. Jedynym problemem jest przestrzeń . Powód jest dobrze wyjaśniony przez @higuaro w jego odpowiedzi. Szczerze mówiąc, nie mogłem sam zinterpretować problemu przestrzeni za pierwszym razem, dopóki nie zobaczyłem wyjaśnienia podanego w jego odpowiedzi.
Zauważyłem, że kod jest nieco łatwiejszy do zrozumienia po przetłumaczeniu na PHP, w następujący sposób:
<?php
$result=0;
$bignum = 4946144450195624;
for (; $bignum > 0; $bignum >>= 5){
$result = (( $bignum & 31 | 64) % 95) + 32;
echo chr($result);
}
Zobacz kod na żywo
out.println ((char) (((l & 31 | 64)% 95) + 32/1002439 * 1002439));
Aby to zrobić: 3