Odpowiedzi:
Konwertuj z ciągu na bajt []:
String s = "some text here";
byte[] b = s.getBytes(StandardCharsets.UTF_8);
Konwertuj z bajtu [] na ciąg znaków:
byte[] b = {(byte) 99, (byte)97, (byte)116};
String s = new String(b, StandardCharsets.US_ASCII);
Oczywiście powinieneś użyć poprawnej nazwy kodowania. W moich przykładach wykorzystałem US-ASCII i UTF-8, dwa najczęściej stosowane kodowania.
Oto rozwiązanie, które pozwala uniknąć wyszukiwania Charset dla każdej konwersji:
import java.nio.charset.Charset;
private final Charset UTF8_CHARSET = Charset.forName("UTF-8");
String decodeUTF8(byte[] bytes) {
return new String(bytes, UTF8_CHARSET);
}
byte[] encodeUTF8(String string) {
return string.getBytes(UTF8_CHARSET);
}
StandardCharsets.UTF_8
ze stałego sposobu uzyskiwania dostępu do zestawu znaków UTF-8.
String original = "hello world";
byte[] utf8Bytes = original.getBytes("UTF-8");
Możesz konwertować bezpośrednio za pomocą konstruktora String (bajt [], String) i metody getBytes (String). Java udostępnia dostępne zestawy znaków za pośrednictwem klasy Charset . Dokumentacja JDK zawiera listę obsługiwanych kodowań .
W 90% przypadków takie konwersje są przeprowadzane w strumieniach, więc korzystasz z klas Reader / Writer . Nie będziesz dekodował przyrostowo przy użyciu metod String w dowolnych strumieniach bajtów - wystawiłbyś się na błędy dotyczące znaków wielobajtowych.
UTF-8
, jakie są obawy dotyczące znaków wielobajtowych?
Moja implementacja tomcat7 akceptuje ciągi jako ISO-8859-1; pomimo typu treści żądania HTTP. Poniższe rozwiązanie działało dla mnie, gdy próbowałem poprawnie interpretować znaki takie jak „é”.
byte[] b1 = szP1.getBytes("ISO-8859-1");
System.out.println(b1.toString());
String szUT8 = new String(b1, "UTF-8");
System.out.println(szUT8);
Podczas próby interpretacji ciągu jako US-ASCII informacje o bajcie nie zostały poprawnie zinterpretowane.
b1 = szP1.getBytes("US-ASCII");
System.out.println(b1.toString());
StandardCharSets.UTF_8
i StandardCharSets.ISO_8859_1
.
Alternatywnie można użyć StringUtils z Apache Commons.
byte[] bytes = {(byte) 1};
String convertedString = StringUtils.newStringUtf8(bytes);
lub
String myString = "example";
byte[] convertedBytes = StringUtils.getBytesUtf8(myString);
Jeśli masz niestandardowy zestaw znaków, możesz odpowiednio użyć getBytesUnchecked () lub newString () .
Aby zdekodować serię bajtów do normalnej wiadomości łańcuchowej, w końcu udało mi się to pracować z kodowaniem UTF-8 za pomocą tego kodu:
/* Convert a list of UTF-8 numbers to a normal String
* Usefull for decoding a jms message that is delivered as a sequence of bytes instead of plain text
*/
public String convertUtf8NumbersToString(String[] numbers){
int length = numbers.length;
byte[] data = new byte[length];
for(int i = 0; i< length; i++){
data[i] = Byte.parseByte(numbers[i]);
}
return new String(data, Charset.forName("UTF-8"));
}
Jeśli używasz 7-bitowego ASCII lub ISO-8859-1 (niezwykle popularny format), nie musisz wcale tworzyć nowego java.lang.String . Znacznie bardziej wydajne jest po prostu rzutowanie bajtu na char:
Pełny przykład działania:
for (byte b : new byte[] { 43, 45, (byte) 215, (byte) 247 }) {
char c = (char) b;
System.out.print(c);
}
Jeśli nie używasz znaków rozszerzonych, takich jak Ę, Æ, Å, Ç, Ï, Ê i możesz być pewien, że jedynymi przesyłanymi wartościami są pierwsze 128 znaków Unicode, ten kod będzie również działał dla UTF-8 i rozszerzonego ASCII (jak CP-1252).
Nie mogę komentować, ale nie chcę zaczynać nowego wątku. Ale to nie działa. Prosta podróż w obie strony:
byte[] b = new byte[]{ 0, 0, 0, -127 }; // 0x00000081
String s = new String(b,StandardCharsets.UTF_8); // UTF8 = 0x0000, 0x0000, 0x0000, 0xfffd
b = s.getBytes(StandardCharsets.UTF_8); // [0, 0, 0, -17, -65, -67] 0x000000efbfbd != 0x00000081
Potrzebuję b [] tej samej tablicy przed i po kodowaniu, która nie jest (to odsyłacze do pierwszej odpowiedzi).
//query is your json
DefaultHttpClient httpClient = new DefaultHttpClient();
HttpPost postRequest = new HttpPost("http://my.site/test/v1/product/search?qy=");
StringEntity input = new StringEntity(query, "UTF-8");
input.setContentType("application/json");
postRequest.setEntity(input);
HttpResponse response=response = httpClient.execute(postRequest);
Charset UTF8_CHARSET = Charset.forName("UTF-8");
String strISO = "{\"name\":\"א\"}";
System.out.println(strISO);
byte[] b = strISO.getBytes();
for (byte c: b) {
System.out.print("[" + c + "]");
}
String str = new String(b, UTF8_CHARSET);
System.out.println(str);
Reader reader = new BufferedReader(
new InputStreamReader(
new ByteArrayInputStream(
string.getBytes(StandardCharsets.UTF_8)), StandardCharsets.UTF_8));
strasznie późno, ale właśnie napotkałem ten problem i oto moja poprawka:
private static String removeNonUtf8CompliantCharacters( final String inString ) {
if (null == inString ) return null;
byte[] byteArr = inString.getBytes();
for ( int i=0; i < byteArr.length; i++ ) {
byte ch= byteArr[i];
// remove any characters outside the valid UTF-8 range as well as all control characters
// except tabs and new lines
if ( !( (ch > 31 && ch < 253 ) || ch == '\t' || ch == '\n' || ch == '\r') ) {
byteArr[i]=' ';
}
}
return new String( byteArr );
}