Pytanie zależy od dokładnego kodowania. Wydaje się jednak, że w wielu rozsądnych kodowaniach, ponieważ długość zmierza do nieskończoności, liczba reguł produkcji (dla właściwej interpretacji początkowego symbolu i terminala ) będzie większa niż jeden z dużym prawdopodobieństwem; tutaj dosłownie mam na myśli ten sam terminal . Jeśli uznamy to za dwuznaczność, spodziewam się, że „większość” gramatyk będzie dwuznaczna. Możemy również wymyślić podobne sytuacje, takie jak reguły i każdej pojawiającej się co najmniej raz.S.→ aS.zazaS.→ SS.→ a
Zakładając tę ogólną hipotezę, że każda (ustalona) możliwa reguła powinna pojawić się z dużym prawdopodobieństwem, gdy długość zmierza do nieskończoności, stwierdzamy, że „większość” gramatyk generuje w niejednoznaczny sposób.Σ∗
Jako przykład rozważmy następujące kodowanie gramatyk nad . Alfabet gramatyczny składa się z symboli . Nieterminale są indeksowane przez ciągi binarne o długości co najmniej 2. Reguły są oddzielone kropkami. Każda reguła jest ciągiem ciągów binarnych oddzielonych średnikami. Pierwszy ciąg binarny jest nieterminalny po lewej stronie, a reszta (jeśli występuje) stanowi prawą stronę; jeśli pierwszy ciąg binarny nie jest nie-końcowy (tj. jest to , 0,1), to zakłada się, że początkowy nie-końcowy. Początkowy nieterminalny jest zawsze 00.Σ = { 0 , 1 }{ 0 , 1 , ; , . }ϵ
W ramach tego kodowania każdy ciąg w Opisuje pewną gramatykę. Gramatyka losowa z dużym prawdopodobieństwem będzie zawierać wiele kopiii, a w szczególności będą niejednoznaczne.{ 0 , 1 , ; , .}∗.00 ; 00.00 ; 0.