[Glosario] Evidencia

En la investigación basada en evidencias, se considera que una evidencia es una unidad de conocimiento, resultado de un proceso de investigación empírica, que se usa para justificar una decisión en un ámbito profesional.

La evidencia no está dada sin más, sino que es un conocimiento que ha de ser producido. Al ser un enfoque que se aplica en diferentes disciplinas, en cada una de ellas el proceso de producción de evidencias puede variar. Sin embargo,  como proceso estándar podrímos señalar aquél que empieza con una revisión de la literatura científica sobre una cuestión concreta. Se realiza un meta análisis con los criterios más exigentes de validez, relevancia y aplicabilidad hasta seleccionar las prácticas que mejores resultados ofrecen. A continuación esos resultados se prueban en la práctica real para comprobar lo que realmente funciona en nuevos contextos. Esas pruebas deben hacerse con muestras aleatorias y grupos de control. El objetivo es evitar sesgos y asegurar que la relación entre causa y efecto es inequívoca. Se evalúa a continuación la efectividad y eficiencia del proceso. Las prácticas que quedan al final del proceso se consideran evidencias que pueden sustentar decisiones acerca de qué práctica seguir o qué decisión tomar en cada caso.

Referencias
Bjerre Jørn y Reimer, David. (2014). The Strategic use of Evidence on Teacher Education: Investigating the Research Report Genre en Karen Petersen, David Reimer y Ane Qvortrupo (Eds.). Evidence and Evidence-based Education in Denmark – The Current Debate (83-102). Aarhus: Department of Education. Aarrhus University.
Brophy, P. (2009). Narrative-based Practice. Farnham: Ashgate.
McKibbon, K.a. (1998), ‘Evidence based practice’, Bulletin of the Medical Library Association 86:3, 396–401.
Straus, S. et al. (2005), Evidence-based Medicine: How to Practice and Teach EBM, (Edinburgh: Churchill Livingstone).

Historias de aprendizaje

Acaba de publicarse un artículo en el que estuve trabajando, con otros compañeros de EAFIT, durante el curso pasado. El artículo trataba de identificar los aprendizajes realizados por un grupo de profesores de educación media que participaron en un curso sobre competencias del siglo XXI, es decir, el fin último era evaluar el curso. Si bien contábamos con un gran número de indicadores cuantitativos de proceso y resultados, apenas contábamos con información sobre el impacto del curso en las aulas de los docentes. El reto estaba en encontrar una metodología capaz de identificar esos cambios. El carácter exploratorio y tentativo nos hizo probar con una metodología cualitativa que recogiera el máximo de información posible para después analizarla con la esperanza de poder continuar desde ahí. A través de narrativas construidas con la ayuda de una entrevista pudimos definir una unidad de análisis, identificarla en los relatos de los profesores y seguirle la pista en varios contextos. De esta forma se pudo establecer una “evidencia” con la que evaluar el curso. Además de eso, las narraciones dejaron clara la importancia de las prácticas por encima de los conceptos y de lo expermientado por encima de lo recibido como información descontextualizada. Igualmente constatámos de qué forma los alumnos reconfiguran los contenidos recibidos y los usan para otras cosas diferentes.

En lo personal, y con todos los defectos que seguro tiene, este trabajó ha significado un gran paso adelante. En el proceso de la investigación llegué a conceptos como el de “práctica”, “trayectoria de aprendizaje”, “sistema de práctica” o “evidencia” que permiten un nuevo entendimiento de la labor docente y de cómo afrontar su análisis sin echar mano de abtracciones teóricas que no necesariamente tienen por qué ser lo que está teniendo lugar. En último término hablar de prácticas permite eludir el problema de la “caja negra” en el aprendizaje de una forma muy fácil: por qué interesarnos por lo que saben los profesores si podemos analizar lo que hacen.

El resumen es este:

En programas complejos de formación de profesores es difícil mostrar resultados positivos en un corto período de tiempo debido a su duración, cantidad de participantes u otras condiciones. La evaluación de impacto de un programa precisa de información de calidad que no siempre es posible recoger o que requiere períodos de tiempo más largos. Sin embargo, los gestores y responsables de los programas quieren ver cambios a corto plazo o necesitan mostrar resultados para justificar inversiones.

Tratando de atender estas dificultades y a partir del modelo de promoción y evaluación de la creación de valor de Wenger, Trayner y de Laat, encontramos que las historias de aprendizaje recogidas en entrevistas con profesores y analizadas con técnicas cualitativas, sirven para documentar cambios en sus prácticas como consecuencia de su paso por un programa de formación.

Este trabajo explora la forma en la que estas historias reflejan trayectorias de aprendizaje, dan cuenta de la apropiación de contenidos y el desarrollo de habilidades y evidencian cambios en las prácticas cotidianas dentro de las instituciones. También sugiere vías para que este enfoque cualitativo sirva de complemento a otro tipo de evaluaciones.

Los datos de la referencia son estos:

Jiménez Sánchez, D., Leal Fonseca, D., & Palacios Campillo, Z. (2015). Historias de aprendizaje: Narratividad, evaluación y formación de profesores. Revista Internacional de Evaluacion y Medicion de la Calidad Educativa, 2(2), 111-125.

Por ahora disponible aquí.

Narratividad, evidencias y evaluación de cursos de formación de profesores

Notas de la presentación que hice en el Congreso Internacional Educación y Aprendizaje. Historias de aprendizaje: Narratividad, evaluación y formación de profesores. (Madrid. Universidad San Pablo CEU).

Historias de aprendizaje

Diego Leal, Zavil Campillos, Daniel Jiménez. 

1

Quiero mostrar algunos resultados de una investigación que realizamos al finalizar un curso de formación de profesores. Esta investigación respondió a la necesidad de evidenciar los aprendizajes de los participantes y comprobar si esos aprendizajes tenían efectos en sus aulas.

A partir de esta experiencia puntual, se puedan extraer reflexiones sobre la evaluación de este tipo de cursos de formación, sobre el concepto de evidencia y sobre las posibilidades de una metodología cualitativa basada en el análisis narrativo.

2

Hablo de un curso para profesores de varios niveles y diferentes instituciones de la ciudad colombiana de Itagüí y tenía como objeto las competencias del siglo XXI.

Cuando el curso terminó, teníamos antes nosotros una gran pregunta que no sabíamos bien cómo responder, a pesar de que, en principio, parece una cuestión muy simple:

  • qué ha pasado;
  • qué han aprendido los participantes;
  • ¿de verdad el curso les está ayudando en su práctica docente?

Teníamos impresiones vagas y suposiciones poco fundamentadas.Por un lado parecía que el curso no había ido bien porque la apropiación conceptual era muy básica. Al mismo tiempo los participantes valoraban positivamente el curso y decían haber aprendido muchas cosas y los tutores decían que se estaban empezando a dar importantes cambios en los profesores.

El problema era entonces cómo alcanzar un conocimiento que nos permitiera confrontar estas impresiones, evaluar el curso para ver si los objetivos se estaban cumpliendo y determinar qué cosas estaban funcionando y qué otras había que cambiar.

3

Ante este panorama, se optó por una investigación de corte cualitativo que pudiera recoger lo que habían experimentado los profesores durante el curso y los efectos que ello había tenido en sus clases y que además lo hiciera captando la mayor información posible sobre los contextos concretos en los que la experiencia de formación se desarrolló.

Para ello decidimos usar narrativas que reunieran, en un relato, la experiencia vivida por los profesores en el curso así como los posibles efectos en su trabajo.

Para construir las narrativas, elaboramos el guion de una entrevista semiestructurada. La entrevista fue un instrumento para construir “historias de aprendizaje” que definimos como:

un texto en el que una persona, desde su punto de vista personal, narra una experiencia de aprendizaje en orden cronológico. Ese relato contiene experiencias vividas y contextualizadas que incluyen información sobre acontecimientos, temas, agentes, contextos, prácticas, saberes y relaciones entre todos estos elementos.

De esta manera, se reunieron 6 entrevistas que después fueron analizadas con un proceso inductivo de codificación temática que se repitió varias veces.

4

Los resultados más destacados de ese análisis son estos:

  1. Hay que destacar que las referencias a las competencias tratadas, a la idea de las competencias del siglo XXI o a la enseñanza basada en competencias estaban casi totalmente ausentes del relato de los profesores.
  1. Los participantes encontraron el valor en las prácticas, es decir, en las formas concretas de hacer cosas.

A partir de aquí, decidimos usar las prácticas como unidad de análisis en todos los relatos. Identificamos esas prácticas en todas las narraciones, las comparamos, establecimos patrones y enumeramos los elementos que las integraban. Así llegamos a la siguiente definición de práctica:

conjunto de operaciones que realizan los profesores para conseguir un objetivo didáctico. Los profesores eligen diferentes acciones, las secuencian de acuerdo a cierto orden e introducen ciertos objetos (herramientas cognitivas, materiales didácticos) para lograr su propósito.

Hay que destacar tres elementos claves que aparecen en todos los relatos:

  • Las prácticas que los participantes llevan al aula son las mismas que han experimentado como alumnos durante la formación. Así pudimos documentar que los docentes llevaron a sus aulas las mismas prácticas en las que participaron durante su formación. Consideramos que este traslado de prácticas entre uno y otro contexto es, de hecho, transferencia de conocimiento.
  • Los objetos (diagramas, tarjetas, etc.) son fundamentales tanto en la experiencia de aprendizaje de los profesores como en los cambios adoptados en sus aulas. Encontramos que estos objetos no son sólo valiosos en sí mismos, sino que embeben prácticas que, insertas en los objetos, pasan de un contexto a otro cuando los objetos son trasladados.
  • La práctica más importante y decisiva para todos los profesores ha sido el trabajo en grupo. Esto es señalado repetidamente como el aprendizaje más importante hecho durante la formación y como un cambio decisivo en sus aulas y en su identidad profesional.

En definitiva, la presencia de las mismas prácticas en los dos contextos nos ha permitido trazar una trayectoria de aprendizaje de los profesores con origen en la formación y con destino en sus centros de enseñanza.

Y así hemos podido evidenciar que el resultado fundamental de la formación fue un incremento del repertorio de prácticas docentes de los profesores:

Este incremento tiene que ver con:

  • Formas de agrupar a los alumnos.
  • Objetos que se introducen en las clases y que cambian los roles y funciones de los alumnos y del profesor.
  • Nuevas herramientas de evaluación.
  • Nuevas metodologías como el aprendizaje por proyectos.

            Todos estos elementos han quedado documentados en las narraciones de los docentes.

7

Hasta aquí lo que tiene que ver con el caso en particular. Pero me gustaría también ofrecer algunas consideraciones surgidas de esta investigación que pueden tener un alcance mayor.

En principio no habíamos pensado usar las historias de aprendizaje como método de evaluación. No obstante, los resultados obtenidos nos llevaron a considerar que las historias podían ser usadas tanto para documentar resultados en los profesores y como para señalar el impacto del programa.

Diferentes autores hablan de narrative-based evidence y consideran las narraciones como una forma legítima de conocimiento que aporta información complementaria a las evidencias cuantitativas. Desde el momento en que aportan información que no queda recogida en los datos cuantitativos formalizados, la narración puede ser usada como fuente de la que extraer evidencias. Sostenemos, por tanto, que las historias de aprendizaje pueden servir para documentar resultados de un programa de formación y ser usadas en la evaluación de esos programas.

8

Ahora bien, somos conscientes que los resultados con los que contamos no pueden ser considerados una evidencia en el sentido estricto que tiene este concepto en los estudios de evaluación. Es decir: la evidencia como una unidad de conocimiento producido por una investigación experimental cuantitativa con muestra aleatoria y grupo de control.

Esto nos llevó a reconsiderar esta definición tan restringida de evidencia y buscar referencias que pudieran aclarar este aspecto. Por ejemplo, Nutley, Powell y Davis hablan también de que la consideración o no de un dato como evidencia tiene que superar el estrecho marco de un positivismo cuantitativo. Ellos abogan por considerar la evidencia como un proceso situado que parte de los datos y atraviesa diferentes etapas (investigación, discusión, negociación) hasta llegar a la evidencia.

Esto implica que una evidencia es tal en función de quién y cómo la produce o quién y para qué la va a utilizar.

9

Así las cosas pensamos que nuestra investigación:

  • Sirve para documentar resultados del curso de formación en términos de aprendizajes realizados, aplicación a contextos reales y efectos en las instituciones.
  • Estos resultados pueden ser tomados como evidencia dentro de un proceso abierto, situado y negociado de producción de evidencias.

Estas dos últimas afirmaciones son, en realidad, cuestiones que se relacionan con la pregunta que nos plantea la organización del Congreso acerca de “qué se considera una evidencia de aprendizaje”.

 

Etnografía combinatoria

Unos apuntes sobre el concepto de “etnografía cominatoria” de Baszanger y Dodier.

  • Trabaja simultáneamente en distintos campos hasta reunir un conjunto de casos que recogen diferentes formas de acción y combinaciones posibles.
  • Rechaza la totalización entendida como una explicación completa de una totalidad (cultura, mundo). Esto la distingue de la antropología cultural (que recupera la totalidad a partir del acceso a las reglas universales, o a la trama de significados de una cultura) y de la etnografía narrativa (que recupera la  totalidad a partir  de la experiencia del etnógrafo).
  • El contexto de los hechos observados es un conjunto heterogéneo de recursos entre los cuales los individuales navegan.
  • Puntos en común con la tradición interaccionnista:
    • Escuela de Chicago. La integración de hechos no remite a un todo cultural o sociológico, sino a un espacio geográfico. Se describen ecologías humanas en las que los grupos interaccionan con el territorio en un espacio dado. La descripción es un inventario de las diferentes comunidades y actividades que aparecen en ese espacio.
    • Grounded theory. No se hace referencia a grandes entidades colectivas, sino a situaciones y  regímenes de acción, señalando compatibilidades y contrastes. Los individuos pasan de una situación a otra y toman parte en diferentes actividades. Se describen esos tránsitos y cambios.
    • Teoría de la acción o de la actividad (en la tradición de una pragmática sociológica). Los individuos están involucrados en diferentes regímenes de acción en los que toman parte en flujos de actividad que determinan las acciones de los individuos. Para participar con éxito son necesarias habilidades y saberes prácticos. Se describen las dinámicas entre los diferentes sistemas de acción. Estos sistemas son contextualizados y están ligados a diferentes tipos de espacios, pero no se pueden reunir en una totalidad homogénea. Siempre hay cierto grado de heterogeneidad entre ellos.
  • El método de estudio consiste en acumular casos individuales que permitan analizar las acciones, saberes prácticos, etc. y acceder a las diferentes lógicas de acción que coexisten en el campo. Los casos se van acumulando y el conocimiento se va enriqueciendo aunque nunca se llega a una totalidad. El conocimiento es, por tanto, siempre incompleto y susceptible de reconfigurarse con nuevos casos. Es una idea similar a la del concepto de saturación en la grounded theory.
  • El investigador se mueve entre diferentes espacios buscando las acciones de los individuos en cada sistema de actividad. El punto de acceso al campo es un tipo de actividad que es explorada desde diferentes ángulos. Se acumulan operaciones, esto es: recursos disponibles para la participación de acuerdo a cada situación.
  • Los individuos no pertenecen a ningún sistema que pueda ser concebido como una totalidad (grupo, cultura, etc.) sino que participan en diferentes regímenes de acción. El objetivo es la descripción de las diferentes posiciones ocupadas en cada regimen de acción por cada individuo, las operaciones que realiza en ese sistema desde esa posición y los saberes prácticos necesarios que moviliza para su participación.

 

La idea de una etnografía combinatoria como inventario de casos que describen sistemas heterogéneos de acción me debe servir en el trabajo de investigación y evaluación de programas de formación de profesores. La idea sería considerar como regímenes de acción tanto las actividades de formación como las actividades profesionales de los participantes y tratarlos como dos campos diferentes y heterogéneos, pero relacionados ya que hay individuos que participan en ambos sistemas. Habría que determinar las relaciones entre ambos campos y ver de qué forma las acciones y operaciones de uno pasan (si lo hacen) al otro.

Este paso no sería otra cosa que transferencia de conocimiento. La ventaja de usar el planteamiento etnográfico de Baszanger y Dodier y de tomar las acciones como unidad de análisis es que permite trabajar con datos observables y con un concepto situado de conocimiento. Esto ya de por sí es una ventaja frente a cualquier enfoque cognitivista que conduce al callejón sin salida de la cajanegrización y frente a los estudios que simplemente son incapaces de fundamentar los resultados en los hechos observados. En lo personal, este enfoque me permite seguir produnizando en diferentes metodologías y enfoques en los que he venido trabajando en los últimos meses con buenos resultados. Esto incluye técnicas de recogida y análisis de datos, formas de identifcar unidades de análisis, soluciones para la cuestión de la generalización, etc.

Por supuesto, hay que trabajar todavía mucho en las técnicas y análisis y afinar todas estas cuestiones, pero siento que estoy en el camino adecuado, que todos los esfuerzos están orientados en la misma dirección y que voy armando una metodología de trabajo que funciona.

Referencias

Dodier, N., & Baszanger, I. (1997). Totalisation et altérité dans l’enquête ethnographique. Revue française de sociologie, 38(1), 37-66. http://doi.org/10.2307/3322372
Baszanger, I  y Dodier, N. (1997). Ethnography. Relating the part to the whole. En Silverman, D. (Ed.). Qualitative Research: Theory, Method and Practice. London: SAGE (pp. 9-34).

Informe PISA

Algunos enlaces sobre los exámenes PISA. Defienden la idea de que esas pruebas son autoreferenciales, es decir, no contienen más información que la clasificación en sus propias clasificaciones. Lo peor es el uso que se hace de PISA: es el argumento principal y único de todos los ataques contra los sitemas educativos democráticos (basados en la igualdad de oportunidades, públicos, gratuitos, integradores, etc.).

    1. La sinrazón de PISA.
    2. El test PISA o el negocio de Pearson.
    3. PISA nos pisa.
    4. OECD and Pisa tests are damaging education worldwide

(in progress)

[cita] Exámenes y calificaciones

Most of our current modes of testing and personnel assessment were developed for the Industrial Age and even, pointedly, for the Fordist assembly line mentality of hierarchical, standardized, quantifiable productivity. In 2012, these Industrial Age remnants of an old model of productivity and rote learning fall short. Many are clunky, ineffective, and cumbersome, so poorly designed that they require educators to “teach to the test” in order that they, their schools, and their students are not penalized for “failing.” The end-of-grade testing, especially, undercuts teacher and student morale by putting the answer on One Best Answer selection, not real knowledge applied to thoughtful and thought-provoking problem-solving. The current multiple-choice form of testing doesn’t measure all that is being learned and de-motivates true curiosity.

El beneficio social de la investigación científica

Excelente presentación de Irene López y Jesús Rey sobre el impacto social de la investigación y la nueva generación de evaluación de la ciencia cuyo objetivo es el impacto social de la investigación.

La evaluación tradicional se ha basado en los productos inmediatos de la investigación (publicaciones y patentes, transferencias al sector privado), la nueva evaluación se basa en los impactos sociales que pueden ser entendidos de diferentes formas y que pueden incluir cosas como beneficios en el bienestar social, entendido en un sentido amplio. Lo importante es que el beneficio tiene un alcance social, va más allá del resultado que beneficia solo a los actores de la investigación y, siguiendo la idea de Merton, el conocimiento científico es (debe ser) conocimiento público.

La nueva evaluación de la ciencia trata con nuevos valores sociales relativos a la ciencia, la investigación y el conocimiento. Cosas como el impacto social, el conocimiento público, el bien común o el valor compartido.

Es muy fácil medir productos de las investigaciones y resultados de difusión académica, pero muy difícil ofrecer datos de verdaderos impactos sociales. Para ello se proponen nuevos modelos de evaluación especialmente diseñados para mediar resultados y también impactos sociales, entendidos como beneficios.  Hace falta, primero, ponerse de acuerdo en qué es impacto social. Segundo, es necesario encontrar las medidas y métodos de recogidas de datos y análisis adecuados para dar cuenta de esos impactos.

Algunas ideas sobre qué es un beneficio social de la investigación según Bornmann y Max (2014):

  • Aportación al avance del conocimiento.
  • Promoción de la enseñanza la formación y el aprendizaje.
  • Ampliación de la participación de grupos con escasa representación.
  • Mejora de la infraestructura para investigación y educación (instalaciones, instrumentación, redes, colaboraciones).
  • Diseminación de los resultados.
  • Beneficios para la sociedad.

Algunas ideas sobre la metodología según Penfield (2014):

  • Estudios métricos.
  • Narrativas.
  • Entrevistas y testimonios.
  • Estudios de caso.
  • Citas (fuera del ámbito académico).
  • Análisis de documentación.

 

Referencias:

Bornmann, L. (2014) Is there currently a scientific revolution in Scientometrics? Journal of the Association for Information Science and Technology, 65(3): 647-648.

Penfield T., Baker M.J., Scoble R. y Wykes M.C. (2014) Assessment, evaluations, and definitions of research impact: A review. Research Evaluation, 23: 21-32.

Ideas interesantes y retos ineludibles para la evaluación de programas de formación de profesores, donde la necesidad y urgencia de medir esos impactos sociales es todavía más fuerte ya que esos programas tienen como objetivo producir esos impactos sociales.

[cita] Test y evaluación

What if we had an assessment system that measured what we valued—not one that valued what is measurable? What if instead of the Industrial Age’s statistical methods based on standard deviation, IQ tests, and ranked scores on multiple choice tests we collectively determined what constitutes excellence and considered our success to be the individual and collective attainment of that degree of excellence, as also validated collectively by our community?

Propuestas de evaluación en cursos abiertos

Recopilación sobre el tema de la evaluación abierta.

  1. Diego Leal publica un borrador acerca de las actividades de evaluación de los cursos abiertos que ha diseñado y facilitado. La propuesta de Leal se basa en modelos de madurez y en una propuesta mixta de evaluación sumativa y formativa. Hay una autoevaluación que se hace a través de una rúbrica al inicio y al final del curso para ver la evolución experimentada durante el curso. Hay un producto final que es evaluado por el docente. Y también se rastrea la contribución de cada participante al grupo a través de las entradas y comentarios en blogs.
  2. Luz Pearson recoge varias formas de evaluación que ha puesto en práctica en diferentes cursos. Ofrece varios ejemplos de evaluación entre pares, plantea la dependencia que tienen los alumnos de la evaluación del docente como experto y lo más interesante es que recoge un ejercicio de evaluación del profesor por parte de los alumnos que tienen que responder en qué medida la labor del profesor ayudó a su proceso de formación. Parte importante de estas propuestas es que se orientan hacia la cohesión del grupo.
  3. Claudia Guerrero habla sobre una experiencia como alumna basada en una especie de meritocracia a partir de la evaluación entre pares. Los participantes valoran los aportes de cada uno al aprendizaje de los demás. Los docentes diseñaron un pormenorizado sistema de recuento y recompensas que iba construyendo el “karma” de cada participante. Todo ello fue implementado con una plataforma open source de preguntas y respuestas. También se aportan ejemplos en torno a preguntas y respuestas recompensados por insignias. Muy interesante.
  4. Leigh Blackall proporciona ejemplos de evaluación que ha llevado a cabo en diferentes cursos. Los ejemplos se basan en objetos de conocimiento que se hacen públicos en palataformas basadas en commons (wikiversity) y en la evaluación p2p. Todo queda documentado en la red de forma que la evaluación es transparente, verificable y demanda una alta responsabilidad  del docente y del alumno.
  5. Cathy Davidson ha escrito bastante sobre la evaluación como proceso de revisión entre pares (aquí y aquí, por ejemplo). En estas entradas cuenta algunos detalles de cómo lleva a cabo este proceso en el que se da gran libertad a los alumnos no sólo para evaluar, sino también para establecer los criterios con los que se va a evaluar. Esto me parece muy importante porque supone entregar la responsabilidad a los alumnos. A veces les damos unos criterios y les pedimos que los apliquen pensando en que están haciéndose responsables de la evaluación cuando en realidad están siendo el brazo ejecutor de lo pensado por otros.
  6. Evaluación basada en el peer review académico. Es una posibilidad para cursos basados en la creación de objetos de conocimiento y orientados a replicar las mismas prácticas que tienen lugar en las comunidades de práctica a la que pertenece la materia que se está enseñando. Por ejemplo, en un curso de ciencias sociales se trabaja en torno a un paper porque la práctica discursiva dominante en ese campo son los papers y se propone una revisión entre pares similar a la que se hace en ese campo. Se puede tomar del procedimiento de cualquier revista y adaptarlo más o menos de acuerdo a las necesidades y objetivos. Puede incluir diversas iteraciones con el fin de mejorar el producto final. En este enlace hay una detallada descripción de un proceso de revisión entre pares y varias referencias en las que se basa. Por supuesto es sólo uno de los ejemplos posibles.

Cosas en común:

  • Evaluación transparente. En muchos casos porque se hace en cursos abiertos donde todo el proceso es público y transparente. Esto implica que cualquiera puede verificar la evaluación.
  • Evaluación que involucra a todos los participantes (profesores, interesados, compañeros) en varios niveles: autoevaluación, heteroevaluación. La evaluación entre pares tiene un gran protagonismo.
  • Predominantemente es una evaluación cualitativa y formativa.
  • Microevaluación realizada a través de la valoración de microtareas de los pares. Se lleva a cabo con insignias, “karmas”, etc. Los participantes acumulan “valor” otorgado por los compañeros y se puede valorar cualquier cosa (el abanico de cosas evaluables es mucho mayor que en la evaluación tradicional).