Widziałem wiele informacji o tym, jak przesyłać strumieniowo wideo z serwera na urządzenie z Androidem, ale niewiele o drugiej stronie, ala Qik. Czy ktoś mógłby skierować mnie tutaj we właściwym kierunku lub udzielić porady, jak do tego podejść?
Widziałem wiele informacji o tym, jak przesyłać strumieniowo wideo z serwera na urządzenie z Androidem, ale niewiele o drugiej stronie, ala Qik. Czy ktoś mógłby skierować mnie tutaj we właściwym kierunku lub udzielić porady, jak do tego podejść?
Odpowiedzi:
Prowadziłem projekt typu open source, aby włączyć telefon z Androidem do kamery IP:
http://code.google.com/p/ipcamera-for-android
Nieprzetworzone dane wideo są pobierane z LocalSocket, a MDAT MOOV MP4 został sprawdzony przed strumieniowaniem. Wideo na żywo jest pakowane w formacie FLV i można je odtwarzać za pomocą odtwarzacza wideo Flash z wbudowanym serwerem internetowym :)
ndk-build
. Aby uzyskać więcej informacji, przeczytaj dokumentację NDK .
Zajęło mi to trochę czasu, ale w końcu udało mi się stworzyć aplikację, która właśnie to robi. Sprawdź stronę kodową Google, jeśli jesteś zainteresowany: http://code.google.com/p/spydroid-ipcamera/ Dodałem mnóstwo komentarzy do mojego kodu (głównie spójrz na CameraStreamer.java), więc powinno być całkiem oczywiste. Trudność polegała na zrozumieniu RFC 3984 i wdrożeniu odpowiedniego algorytmu dla procesu pakietowania. (Ten algorytm faktycznie zamienia strumień mpeg4 / h.264 wytwarzany przez MediaRecorder w ładny strumień rtp, zgodnie z rfc)
PA
Też się nad tym zastanawiam i chociaż nie mam dla ciebie dobrego rozwiązania, udało mi się wykopać kod wideo SIPDroid:
http://code.google.com/p/sipdroid/source/browse/trunk/src/org/sipdroid/sipua/ui/VideoCamera.java
Zbudowałem zestaw SDK typu open source o nazwie Kickflip, aby strumieniowe przesyłanie wideo z Androida było bezbolesne.
Zestaw SDK demonstruje użycie interfejsu MediaCodec API systemu Android 4.3 do kierowania pakietów kodera sprzętowego urządzenia bezpośrednio do FFmpeg dla RTMP (z librtmp) lub przesyłania strumieniowego HLS H.264 / AAC. Pokazuje także efekty OpenGL w czasie rzeczywistym (tytuł, kluczowanie, zanikanie) i nagrywanie w tle.
Dzięki SO, a zwłaszcza wyblakłe .
Oto pełny artykuł na temat przesyłania strumieniowego wideo z kamery z Androidem na stronę internetową.
Android Streaming wideo z kamery na żywo do strony internetowej
Jestem w stanie wysłać wideo z kamery na żywo z telefonu komórkowego na mój serwer. Używając tego linku zobacz link
Zobacz powyższy link. W tym łączu znajduje się przykładowa aplikacja. Wystarczy ustawić adres usługi w RecordActivity.class.
Przykład jako: ffmpeg_link = "rtmp: // yourserveripaddress: 1935 / live / venkat";
za pomocą tego linku możemy wysyłać filmy typu H263 i H264.
To nie jest pełna odpowiedź, ale webRTC może być tym, czego szukasz. Oto kilka szybkich przykładów działania webRTC: http://www.webrtc.org/reference-apps
Jeśli chcesz kod dla systemu Android, istnieje! http://www.webrtc.org/native-code/android
Sprawdź bibliotekę Yasea
Yasea to klient przesyłania strumieniowego na Androida. Koduje dane YUV i PCM z kamery i mikrofonu do H.264 / AAC, hermetyzuje w FLV i przesyła przez RTMP.
Funkcja:
Mux (moja firma) ma otwartą aplikację na Androida, która przesyła strumieniowo RTMP na serwer, w tym konfiguruje kamerę i interakcje użytkownika. Jest zbudowany do przesyłania strumieniowego do interfejsu API transmisji strumieniowej na żywo Mux, ale może łatwo przesyłać strumieniowo do dowolnego punktu wejścia RTMP.
W zależności od budżetu możesz użyć aparatu Raspberry Pi, który może wysyłać zdjęcia na serwer. Dodaję tutaj dwa samouczki, w których można znaleźć wiele innych szczegółów:
W tym samouczku pokazano, jak korzystać z aparatu Raspberry Pi i wyświetlać obrazy na urządzeniu z Androidem
To drugi samouczek, w którym można znaleźć serię samouczków na temat przesyłania strumieniowego wideo w czasie rzeczywistym między kamerą a urządzeniem z Androidem