Como sabrán, por primera vez hubo conteo rápido para la elección de gobernador(a) en el Estado de México. El conteo rápido estimó resultados con base en una muestra de las 1,347 casillas recabadas a las 21:10 horas del 4 de junio de 2017.
Los límites inferior y superior estimados por el Comité del Conteo Rápido del Estado de México se indican en la primera gráfica. Por otro lado, la evolución de las tendencias de voto conforme se recabó la muestra están en la segunda gráfica. La tercera gráfica ilustra cómo las tendencias del PREP –que tiene fuertes sesgos urbanos– eventualmente convergen hacia las estimaciones del Conteo Rápido.
Esa misma noche, se dijo que esa muestra era incompleta o insuficiente para estimar el resultado de la elección. Esto era falso, puesto que el diseño muestral originalmente propuesto solo requería una muestra de 1,200 casillas. Sin embargo, para paliar una posible tasa de no reporte de hasta 34%, se generó una muestra ampliada de 1,818 casillas (1200/0.66=1818).
Sin embargo, es comprensible que muchas personas no crean esto. Después de todo, nadie debería estar obligado a conocer sobre diseño muestral o teoría estadística para confiar en un conteo rápido (caso contrario son los líderes partidistas, quienes conocen este tipo de ejercicios desde hace años).
Para salir de dudas, he diseñado una hoja de Excel que calcula el porcentaje de votos de cada candidato(a) a gobernador(a) para una muestra aleatoria de aproximadamente 1,347 casillas (7.2% del total de casillas), tomadas de la base de datos del PREP EDOMEX 2017.
Si quieres generar una muestra aleatoria de casillas similar a la usada por el Comité Técnico del Conteo Rápido y calcular los porcentajes de voto estimados, solo descarga este archivo de Excel y presiona F9 en tu propia computadora:
Simulador de conteo rápido Edomex 2017 (archivo excel, 4mb).
Las elecciones tienen fuertes componentes aleatorios. Por ello, cada elección es una oportunidad de aprender un poco de estadística.
*Aquí encontrarán toda la documentación del Conteo Rápido del Estado de México 2017, incluyendo la base de datos utilizada en la estimación final (archivo zip, 3mb).
Pingback: ¿Y dónde está el fraude? | El Cerebro Habla
1. Eso no fue lo que se comunicó oficialmente, me parece que te lo estás sacando de la manga.
2. Tus resultados, al no completar la muestra perdieron certeza, si la diseñaste con un tamaño muestral de 1,818 casillas fue por algo, pero independientemente de si “la muestra fue sobrada” como tratas de justificar, el principio de alatorialidad se pierde y por lo tanto lo probabilístico de la muestra y con ello su representatividad.
3. Te pagaron muy bien para dar resultado profesionales y comunicarlos para ser entendibles por los no conocedores, lo menos que se podría esperar de ustedes es que respetaran el tamaño muestral, que ustedes mismos establecieron, y que lo comunicaran oportuna y adecuadamente, así como la metodología, e insisto, el problema no está en el número de casillas que reportas, o sea, tu tamaño de la muestra, el problema radica en que, supongo, que para cumplir con los estándares de una muestra probabilística, tus unidades de estudio fueron escogidas al azar y todas ellas tenían una probabilidad a ser escogidas con un valor diferente de cero, esto dejó de existir al momento que anulaste la probabilidad de entrar a la muestra, las casillas que no reportaste, que ya habían sido seleccionadas aleatorimente, por lo tanto, efectivamente tus resultados, lo menos que se puede decir, son poco profesionales e indignantes. Tu estudio no corresponde a lo que se te pagó, omitiste el contexto en el que se incerta tu trabajo: lo importante de las elecciones en el EDOMEX, lo estrecho de los resultados, la desconfianza en las instituciones, etc. En todo caso, hicieron lo contrario por lo que se les pagó, es decir, generaron incertidumbre y suspicacias y no certeza, que era la finalidad de tu estudio. Los resultados de tu comunicación y de tu estudio ahí están visibles.
Otro que no puso atención en la clase de estadística (o no la llevó).
En lugar de descalificar y utilizar una retórica de “yo sí sé” y tu no sabes” demuéstralo con argumentos. Y por cierto, no sólo estudié estadística, doy clases de estadística inferencial en la máxima casa de estudios del país y tengo varias investigaciones publicadas utilizando el método y análisis estadístico, así como la técnica de encuesta. Mejor argumenta,no descalifiques.
@ Rodrigo Perera:
1. No sé exactamente qué piensas que no se comunicó oficialmente, pero aquí un artículo del Excelsior donde se explicaba, desde mayo, cómo se realizaría el Conteo Rápido, y cuántas casillas integrarían la muestra: http://www.excelsior.com.mx/nacional/2017/05/15/1163583
2. ¿”Al no completar la muestra”? ¿No quedamos que estaba hasta “sobrada”? y, ¿de dónde sacas que la muestra de 1818 no fue aleatoria? ¿Cuál es el argumento para decir que las 1818 no se seleccionaron de manera aleatoria?
3.1 Como ya vimos, el proceso y la metodología se comunicó con anticipación
3.2 ¿Cuál es tu lógica para deducir que algunas casillas se “quedaron fuera” de manera no aleatoria?
3.3 ¿De qué estudio hablas? Este artículo EXPLICA los procesos del PREP y del Conteo Rápido, NO ESTUDIA los resultados de la elección. En la estadística no caben elementos subjetivos como la desconfianza en las instituciones, para eso está la investigación cualittativa, que no es lo mismo.
Cito textual el artículo de Excelsior: “De esta forma, el Conteo Rápido consiste en levantar la muestra, correspondiente a 1,818 casillas” y la metodología no está bien explicada, no dice como se estimó el tamaño de la muestra ni cuál fue la técnica de muestreo.
No me refiero a que se estudien dentro de las variables de la muestra esos elementos, la investigación tenía un objetivo, me refiero a estudiar el contexto en donde se dan o se comunican esos datos. Todo investigador debe contextualizar sus datos, entender a quién se los comunica y la situación en la que se comunican, el no hacerlo da resultados como los que evidentemente se están dando, es decir, una desacreditación del conteo rápido.
Una cosa es determinar el tamaño muestral y otra hacer la selección de las unidades del universo de estudio que entrarán a la muestra, doy por sentado que fue proababilística (aunque no lo expliquen), ahora bien si ya seleccionaste 1818 casillas, aleatoraimente, se seleccionarion pensando en una probabilidad específica de se ser seleccionadas, al reducir la muestra esa probabilidad disminuye y se deben hacer los cálculos de nuevo, pero también, se cae en una falacia ecológica, no puedes reducir la muestra una vez seleccionadas las unidades de estudio, desde el criterio que fueron esas unidades de las que se obtuvo primero la información, al hacer eso se pierde el principio de alatorialidad de una encuesta probabilística por dar un ejemplo si la información que se obtuvo primero fue de las casillas más cercanas a Toluca, las que cerraron antes por poca participación o con menor número de votos y se están dejando de lado casillas como las de Ecatepec u otras casillas importantes, que ya habían sido seleccionadas en la muestra, efectivamente se pudo sesgar. Al haber sido seleccionadas y después eliminadas, les estás quitando arbitrariamente la posibilidad de entrar en la muestra, ahí radica el problema, no en el tamaño.
Perdón pero, ¿cuál investigador, de qué investigación hablas?!
¿Cuál reducción de la muestra?
¿Qué casillas fueron seleccionadas y luego eliminadas?
Tip: A preguntas concretas, respuestas concretas.
Gracias por esta comunicación Claudia, yo me refiero a los investigadores entre ellos Aparicio, que fueron contratados por el IEEM y al comunicado oficial de esa institución en donde se dijo que sólo se había completado el 74% de las casillas seleccionadas para la muestra, a esa reducción me refiero. Y precisamente falta que den a conocer la metodología precisa de cuáles y con qué criterios fueron seleccionadas las casillas de la muestra y cuáles no fueron reportadas cuando se dio a conocer el resultado.