jueves, 24 de enero de 2013

Los Organismos Modificados Genéticamente, la inocuidad de los alimentos y el medio ambiente

6



Desde hace varios años, la ingeniera genética ha generado plantas con resistencia innata a las plagas y tolerancia a los herbicidas. Ha permitido, por ejemplo, producir peces de crecimiento rápido y resistentes al frío y vacunas más baratas y eficaces contra enfermedades del ganado, así como productos que aumentan la capacidad de los animales para absorber nutrientes; y se ha estudiado su aplicación en el sector forestal con miras a aumentar características valiosas de árboles de plantación como el álamo. Cultivos Modificados Genéticamente (CMG) que permitieran reducir los insecticidas podrían tener efectos positivos desde el punto de vista del impacto ambiental y de los costos de producción para los consumidores, aunque no ha habido tiempo suficiente para poder realizar análisis a posteriori.


Reconocer el potencial y las contribuciones, hasta ahora presuntas, de los Productos Modificados Genéticamente (PMG) a la producción alimentaria mundial no significa pasar por alto sus posibles riesgos en lo que respecta a la inocuidad de los alimentos y los peligros imprevisibles para el medio ambiente, entre los cuales los que se citan con más frecuencia son la temida transferencia de toxinas o alérgenos y los efectos negativos involuntarios sobre otras especies. 
Tampoco significa quitar importancia a la posibilidad de que esos productos tengan consecuencias perjudiciales a largo plazo, como por ejemplo una reducción de la biodiversidad mediante la pérdida de cultivos tradicionales. Además, los Organismos Modificados Genéticamente (OMG), como todas las nuevas tecnologías, son instrumentos que pueden utilizarse con fines buenos o malos, del mismo modo que pueden ser regulados de forma democrática en beneficio de las personas más necesitadas o manipulados para favorecer a determinados grupos que controlan el poder político, económico y tecnológico decisivo. En el caso de los OMG, cabe señalar que los principales beneficiarios hasta la fecha han sido los promotores de la tecnología del sector privado y los grandes productores agrícolas, que en su mayoría residen en países desarrollados.
Para que los beneficios se compartan más equitativamente con los países en desarrollo y los agricultores con pocos recursos, es necesario modificar el sistema actual de derechos de propiedad intelectual y otros obstáculos a la pronta transferencia de las biotecnologías modernas. Sobre todo, hace falta dirigir la investigación hacia esos países y agricultores desfavorecidos y encontrar medios para garantizar que las personas pobres y expuestas a la inseguridad alimentaria reciban una parte mayor de los beneficios de la producción.
La creación de OMG plantea actualmente el conjunto tal vez más amplio y controvertido de cuestiones éticas relativas a la alimentación y la agricultura.
Te invitamos a que profundices en el tema leyendo este documento, para luego expresar tu opinión en la discusión de este interesante campo y sus implicaciones para la fruticultura, los alimentos en general derivados de OGM, el ambiente y la salud humana y animal en el marco de la asignatura Fruticultura I del Posgrado de Agronomía de LUZ

Fuente: https://docs.google.com/file/d/0B9cxWJEDwrcGRHR1T0VVQzZYRHc/edit

martes, 20 de noviembre de 2012

Educación y Software Libres para una Sociedad Abierta

3

Richard M. Stallman
Los dos aspectos más importantes de la apertura tienen que ver con la libre disponibilidad a través de Internet y con las menores restricciones posibles en el uso de los recursos, tanto técnicas, como legales o de precio.

Es por ello que la presente década puede llamarse la "Década Abierta" u o-década (del inglés open, como en open source, open systems, open standards, open archives, etc.), de manera tal que cualquier persona en cualquier lugar, e independientemente de sus recursos económicos o nivel social, tenga las mismas oportunidades para acceder a aquello que satisfaga sus necesidades, sean éstas educativas o de cualquier otra índole. Sin duda, la apertura en una sociedad es la condición fundamental para alcanzar una Justicia Social verdadera.

En ese orden de ideas, el Software Libre (SL) es un componente esencial para la creación de Recursos Educativos Abiertos (REA), así como sistemas operativos de uso masivo que puedan ser empleados sin restricciones, gracias a las cuatro libertades básicas de este tipo de código, tal y como fueron concebidas por Richard Stallman, para muchos uno de los pensadores más visionarios y comprometidos con el Movimiento de Acceso Abierto de nuestros tiempos, a saber:

(i) La libertad de ejecutar el programa sea cual sea el propósito.
(ii) La libertad de modificar el programa para ajustarlo a tus necesidades (para que se trate de una libertad efectiva en la práctica, deberás tener acceso al código fuente, dado que sin él la tarea de incorporar cambios en un programa es extremadamente difícil).
(iii) La libertad de redistribuir copias, ya sea de forma gratuita, ya sea a cambio del pago de un precio.
(iv) La libertad de distribuir versiones modificadas del programa, de tal forma que la comunidad pueda aprovechar las mejoras introducidas.

Estas ideas siguen despertando polémicas, pues el mismo Stallman señala que el SL no se refiere específicamente a su gratuidad, sino a las libertades mencionadas, e incluso conmina a los desarrolladores bajo este paradigma a cobrar por su trabajo a objeto de apoyar este movimiento hacia una sociedad abierta.

Para ahondar en estos y otros aspectos relacionados con el SL, pueden apoyarse en el siguiente material:

- Prsentación: Educación y Software Libres para una Sociedad Abierta
- Decreto presidencial 3.390 (Venezuela).
- Stallman, R. 2004. Software Libre para una sociedad libre. (1a versión en español autorizada por el autor).

Y partir de estas interrogantes para iniciar una discusión sobre el tema:
(i) A tu juicio, cuáles son las ventajas y limitaciones del SL con respecto al Software Propietario o "Privativo".
(ii) Qué papel desempeña el SL en la construcción de una Sociedad Abierta.

Tux es el nombre de la mascota oficial de Linux. Fue creado por Larry Ewing en 1996.






domingo, 11 de noviembre de 2012

CFHE12: Analítica de la Twitteresfera.

0


Entendiendo la foto del evento
Los mensajes publicados en Twitter, sobre todo asociados a eventos como el MOOC "Current/Future Status of Higher Education 2012 (#CFHE12)" reflejan su dinámica mediante la Twitteresfera o conjunto de tuits que se pueden agrupar mediante una etiqueta o "hashtag" para su análisis. Sin embargo, las relaciones entre los autores, tales como publicar, seguir, responder o retuitear un mensaje, no son claras a simple vista, en especial si esa nube de mensajes es densa. El Análisis de Redes Sociales (ARS o SNA por sus siglas en inglés) brinda una gama cada vez más amplia de herramientas para develar la estructura de relaciones que emergen a partir de las interacciones mencionadas. Una de ellas es NodeXL, un plugin gratuito para Excel, muy amigable, pero al mismo tiempo poderoso, que calcula parámetros sobre el tamaño, estructura y cohesión de grupos de una red, así como métricas de la importancia relativa de los individuos y sus roles a lo largo del evento. Para el análisis, NodeXL, al igual que otros programas similares, considera a cada participante como un vértice y sus mensajes como aristas, de esta forma se genera un grafo o sociograma y su correspondiente matriz de adyacencia.
En el siguiente grafo se agrupan todas las interacciones ocurridas hasta el viernes 02 de noviembre, al final de la semana cuando se estudió el tema Big Data y Analítica en la Educación Superior:

Esta es "la foto completa", misma que a simple vista no aporta mayor información. En ella se incluyen la publicación de un mensaje, respuestas (replies), menciones (mentions) y seguimiento (followed). NodeXL permite filtrar a las personas mediante estas relaciones, por grupos y parámetros de la red e individuales.

- Análisis de interacciones individuales
Para el momento del análisis, viernes 02 de noviembre, un total de 133 participantes mostraron 932 interacciones representadas por las aristas del grafo. Cuántas de ellas fueron tuits, respuestas, menciones y seguimiento? Veamos:

Cada uno de esos círculos o "loops" representan un tuit, que en total suman 201. De ellos, sólo 8 recibieron respuestas directas, se hicieron 91 menciones y se generaron 630 seguimientos, como se puede ver en el próximo grafo:

. Dado que son más de 600 "followed", cómo discriminar por persona o grupos? NodeXL facilita ambas opciones ya que identifica a cada persona según su nombre en Twitter. Por ejemplo, George Siemens (@gsiemens) ocupó el primer lugar con 91 interacciones, de las cuales 14 fueron salientes (Out Degree) y 77 entrantes (In Degree). Gracias a su posición central, como se ve claramente en el grafo a continuación (abajo, en el centro), registró la posición más influyenye con un índice de Centralidad de Intermediación (Betweenness Centrality) de 6839.89, seguido por @C21U con 1094.91.


Este análisis no pretende ser profundo ni concluyente, sólo mostrar la potencialidad de una herramienta gratuita y que puede ser usada por profesores o cualquier otra con un mínimo de conocimiento sobre el ARS. En mi caso, @larrylugo, ocupé una posición periférica, con 18 interacciones en total (Degree) y una Centralidad de Intermediación de 568.3, cuyo grafo se muestra al inicio de este post.

- Análisis de grupos.
NodeXL detectó un total de 16 grupos, con los más importantes ordenados por el número de vértices (personas) y sus interacciones (aristas), según se resume en esta tabla (clic sobre la imagen para agrandarla):


Sólo los primeros 4 aglutinaron a más de 20 personas, siendo el número uno el que abarcó a más individuos e interacciones. De esta manera se puede concluir:

- NodeXL es un plugin relativamente fácil de utilizar si se tienen conocimientos básicos de Análisis de Redes Sociales (ARS) y dominio de Excel.
- Es posible realizar un análisis gráfico-matemático de cualquier Twitteresfera generada a partir de un hashtag o etiqueta.
- El análisis puede hacerse de forma individual o por grupos.
- NodeXL calcula métricas de la estructura de la red (diámetro, grupos, densidad, etc) y de individuos y sus roles e importancia relativa (centralidad, intermediación, etc.).
- Para el caso de la Twitteresfera del MOOC CFHE12, 133 participantes generamos una red con más de 900 interacciones tomando en cuenta los tuits publicados, respuestas directas, menciones y seguimientos. Se detectaron 5 grupos importantes, con más de 20 participantes y un diámetro máximo de 5 interacciones, con un promedio cercano a 2.

- Enlaces de interés:
(i) Más detalles y descarga de NodeXL
(ii) Galería de gráficos de NodeXL


........................................................................................................................
http:/














sábado, 13 de octubre de 2012

MOOCs and the "Wow factor"

0

MOOCs: size really really matters?
Wow, it's an expression that we tear those products, technologies and situations that strike us to the end. It's inevitable. A bow to the new human achievements through excellence and innovation. But MOOCs have enough to tear that deeply expression of wonder and surprise? I'm not an expert on the subject, so I joined recently this wonderful experience called MobiMooc. It's my third "big course" under this approach. And I reaffirm it, big, because the first two were 163,000 and 155,000 students, according to its creators and facilitators. The first one I made was with Udacity on Artificial Intelligence (AI). I was so impressed once I verified that handled more than 160,000 people. The technological challenge of what is lost sight of, and it's free. It definitely deserved "a big Wow". Udacity says on its website: "We believe university-level education can be Both high quality and low cost. Using the economics of the Internet, we've connected some of the greatest teachers to Hundreds of Thousands of students all over the world". Sirs and madams, another well deserved Wow. Moreover, Dr. Sebastian Thrun, Udacity's Founding CEO and President/COO gave up his comfortable and safe position at Stanford to undertake this adventure to democratize education! After taking this course, I often wondered if this issue of MOOCs was about technology, robots, AI and large numbers to break records, or was it really to innovate to maintain excellence in education? I must say it's more of the former, because although technology deployment deserves many profound Wows, educational strategy was limited to videos with quizzes at the end to reinforce learning, with a mid-term and at the end, and office hours. Sure, a forum started rather late and there were many local initiatives where people were organized in groups. I could not join with any, so my experience was repetitive, solitary, almost like a drowning in the sea of ​​people for whom I was a perfect stranger. Later I joined another MOOC on statistics, as Prof. Thrun wanted to break another record on the size of his next course. Obviously, in this case, size does matter. But it also left for similar reasons. No wow at all! My next experience with another sea of 155,000 invisible people was with Google. The only expectation I pulled an inevitable Wow. The dynamic was similar to that used by Udacity. In fact, Dr. Thrun is a key part of Google's innovation. But this time the videos were more practical, with exercises and a mid term and final exam for certification. There were also forums and used Google Hang Outs. The experience was warmer, I learned lots of things since the course was in extremity practical and, of course, a much more simple than the AI as we talk about how to improve search with Google Search. They gave me a 90 over 100! Looking for a third experience I joined MobiMOOC. Completely lost for nearly two weeks. Now there wasn't a sea of ​​people, but of choice. So many good level and I did not know where to start until almost 10 days later. Ignatia de Waard, the course leader, offered us a warm and very useful orientation. After a diverse challenging activities I finally coupled. This MOOC has been the most human and deserves great deeply Wow, specially for Ignatia inexhaustible work and her support group (I think she has one, or at least a pair of clones of herself). In the first two MOOCs were the same teachers throughout the experience, but the diversity of MobiMOOC experts has given a further wealth had not seen before. Schedules, for example 4:00 am to me in the case of a Webinar, have made it difficult to maximize the experience. MobiMOOC has not been a crowded experience with thousands of participants, or is it? I dare say not, because the scale has allowed greater interaction and humanize the learning experience. In conclusion: are MOOCs loosing their wow factor, their "mojo"? I think so. It is not about breaking records or implement super AI robotic technologies. This is about people, real people. The worst enemy for MOOCs is themselves: their huge size that can be converted into a solitary experience, students becoming shipwrecked in a sea of ​​people. I loved MobiMOOC for its human scale, for its warmth and personalized learning through different routes. That deserves a big Wow. But we can scale this type of learning? The discussion continues as the MOOCs have proliferated. You have the last word and now I'm attending CFHE12, my fourth MOOC. I hope a lot of wows are awaiting us.

domingo, 5 de agosto de 2012

Visual History, el plugin de Chrome que visualiza patrones de navegación

0

Visual History para el navegador Chrome, visualiza patrones de navegación mediante un gráfico interactivo. El gráfico es exportable en formatos compatibles con Pajek y Gephi (GEXF) para aplicar métodos del Análisis de Redes Sociales en el estudio de tales patrones.

Puedes ver la historia de sitios visitados durante la última hora o hasta varios meses y seleccionar si prefieres visualizar una URL por nodo o agruparlas por dominio. Dos páginas se consideran unidas si se consultan de forma consecutiva en menos de 20 minutos.

El gráfico y su física asociada se basa en Protovis.

Mas detalles en: https://chrome.google.com/webstore/detail/emnpecigdjglcgfabfnmlphhgfdifaan

jueves, 10 de diciembre de 2009

Evaluación de la Calidad de los Objetos de Aprendizaje

0



"Existen tantas definiciones de Objetos de Aprendizajes, como los especialistas que las han elaborado. Y para determinar la calidad, debe contarse con instrumentos objetivos y adecuados a la naturaleza del objeto, para minimizar la influencia subjetiva tanto del usuario, como del evaluador."

En función de lo anterior, definir un Objeto de Aprendizaje (OA), y más complejo aún, determinar su calidad, son dos temas definitivamente polémicos. Más aún si añade otro elemento en la discusión: los Recursos Educativos Abiertos (REA), así como la tendencia en la Web 2.0 hacia una educación abierta.
Finalmente, estos estándares tienen poco o nada que ver con la calidad de los OA.

• Qué es un Objeto de Aprendizaje (OA)


La educación mediada por las Tecnologías de la Información y Comunicación (TIC) ha permitido el desarrollo de escenarios de aprendizaje flexibles, independientes del tiempo y del espacio y contextualizables. Un elemento clave para la generación de esos espacios de aprendizajes personalizados, o Ambientes Personales de Aprendizaje (APA o PLE por sus siglas en inglés) es la manera de organizar la información para que sea reutilizable, permanezca accesible a los usuarios, interoperable con o sin plataformas, accesibles sin restricciones que permitan un enfoque abierto, y compatibles con las tecnologías Web 2.0, de manera que sea posible desarrollar cursos en línea a distintos niveles de alcance y en las modalidades de educación formal. no formal e informal.

La respuesta a todo lo anterior son los Objetos de Aprendizaje (OA) que según Cano-Zárate (2007) pueden definirse como una estructura (distribución, organización) autónoma que contiene un objetivo general, objetivos específicos, una actividad de aprendizaje, un metadato (estructura de información externa) y por ende, mecanismos de evaluación y ponderación, el cual puede ser desarrollado con elementos multimedia con el fin de posibilitar su reutilización, interoperabilidad, accesibilidad y duración en el tiempo.
Destaca además dicho autor, que un puede ser montado (incorporado, subido, instalado, configurado) en una plataforma de Gestión de Aprendizaje o LMS (Learning Management System) y que es el producto de un diseño instruccional donde convergen procesos de educomunicación y los Objetivos Instruccionales.

Una definición que subraya una de sus características más importantes, la reusabilidad, sería "Fragmentos interactivos de e-learning, orientados a la Web y diseñados para explicar un objetivo de aprendizaje independiente"(CETL, 2006). De allí que, la metáfora de un OA equivalente a un bloque de contrucción de juguete como los populares Legos, representa muy bien este concepto:


Una gran ventaja de ese carácter modular es que se pueden integrar tantos OA como sean necesarios en los cursos, para de esta manera abarcar un tema, o toda una unidad, dependiendo del número de OA que definan el alcance deseado, como se muestra en la siguiente analogía gráfica:




Ahora bien, para poder reutilizar los OA en los Entornos Virtuales de Aprendizaje (EVA o LMS por sus siglas en inglés) libres o propietarios, en los PLE u otras herramientas Web 2.0, así como contextualizarlos según su entorno y alcance, es imprescindible el uso de estándares para su (i) documentación, (ii) almacenamiento en repositorios, (iii) organización y clasificación, (iv) búsqueda, (v) distribución, (vi) mezcla y (vii) redistribución.
Con relación al tamaño del OA y su efectividad de enseñanza, Wiley (2010) ha establecido que existe una paradoja:




Paradoja? Si, y consiste en que, a menor tamaño del OA, y esto es, menos alcance y complejidad en la temática objeto de estudio, mayor será su efectividad de enseñanza. Por lo tanto, los OA conscisos, de alcance limitado, permitirán su mezcla y reutilización con más facilidad, pero se requerirán mucho más de ellos para enseñar un tópico en particular. Y, en sentido contrario, un OA muy grande y complejo, podrá permitir la enseñanza de un capítulo completo, pero será mucho más difícil su reutilización.


• Estándares de Metadatos para OA

Los "metadatos" literalmente son "datos sobre datos", es decir, información adicional que describe los datos de interés primario del usuario.
Existen dos tendencias principales en la actualidad para la generación de los metadatos: (i) la técnica multimedia y (ii) la Web Semántica, que está en plena implementación.
Con relación a la primera, se han propuesto varios estándares como Dublín Core, EEE-LOM, RDF, OWL, entre otros. En ellos se especifican normas que posibilitan su "empaquetamiento" y gestión según lo ya indicado.
La estandarización ha permitido la creación de grandes repositorios o colecciones organizadas (bases de datos) institucionales como Ariadne, Globe, MIT DSpace, entre muchos otros que suman millones de OA accesibles por medios electrónicos, principalmente, navegadores o browsers. Pero también existen plugins para los EVA como Moodle, que facilitan la búsqueda directa en algunas de esas bases de datos, directamente desde un curso.
La estandarización de los OA es lo que permite su gestión de forma masiva, y de ello depende en buena medida su uso y reutilización. En tal sentido el MIT, por ejemplo, ha emprendido el proyecto CWSpace para archivar y gestionar sus contenidos educativos.
Es menester destacar que una Educación Abierta, sólo será posible con Recursos Educativos Abiertos en Repositorios de acceso libre o abiertos.

• Relación entre los Recursos Educativos Abiertos (REA) y los OA

Esta es una discusión recurrente que, a mi entender, Wiley (2010) le ha puesto fin al definir los REA partiendo de los OA y agregando características de la Web 2.0 y una licencia de código o fuente abierta. Así un REA = OA + Licencia Open Source.
De esta manera, si un OA puede ser (i) reusable, (ii) revisable, (iii) remezclable y (iv) redistribuíble, con acceso a su código fuente, entonces estamos en presencia de un REA según él mismo muestra en esta figura:


Fuente: Wiley (2010).


• Calidad de los OA

Al hablar de calidad en términos generales, tiene que ver con la relación entre lo que se espera de algo y lo que realmente se obtiene. Así, en el caso de un OA, su calidad será mayor en la medida que el mismo garantice el cumplimiento de los objetivos del aprendizaje. Por lo tanto para determinar la calidad de un OA debe valorarse, de forma objetiva, la pertinencia de los recursos y actividades que encierra y su efecto real, mensurable, sobre el aprendizaje.

Dado que la naturaleza de los OA es muy diversa, al punto de que ha sido necesario proponer taxonomías para su clasificación, no existe un instrumento único para todos ellos. Entonces, cómo puede evaluarse la calidad de un OA?


En principio puede hablarse de dos aproximaciones (i) basada en revisiones y opiniones de potenciales usuarios; (ii) desde una perspectiva científica.
Como caso de estudio se puede citar el repositorio MERLOT, que es “un recurso gratuito y abierto diseñado principalmente para la educación superior. Almacena enlaces a materiales educativos en línea, así como sus anotaciones, tales como revisiones entre pares”. MERLOT es por tanto un almacén de metadatos de recursos educativos con una filosofía peculiar respecto a la evaluación de los mismos. Esta filosofía tiene como más claro exponente las revisiones entre pares (peer reviews), lo que posibilita obtener una evaluación cuantitativa y cualitativa de aspectos como la estética, contenidos, usabilidad, etc.
Específicamente, los evaluadores de MERLOT consideran tres criterios que se ponderan sobre una escala de 5 valores:
- Calidad de Contenido
- Efectividad Potencial y
- Facilidad de uso.

En términos generales puede decirse que en todo OA deben evaluarse aspectos relacionados con: (i) contenido, (ii) diseño instruccional y (iii) metadatos

Con respecto a instrumentos específicos, uno especialmente diseñado para recursos e-Learning es el Learning Object Review Instrument (LORI). Es una herramienta que permite evaluar los objetos de aprendizaje en función de nueve variables, con una escala del 1 (mínimo) al 5 (máximo), a saber:
1. Calidad de los contenidos: veracidad, exactitud, presentación equilibrada de
ideas y nivel adecuado de detalle.
2. Adecuación de los objetivos de aprendizaje: coherencia entre los
objetivos, actividades, evaluaciones, y el perfil del alumnado.
3. Feedback (retroalimentación) y adaptabilidad: contenido adaptativo o
feedback dirigido en función de la respuesta de cada alumno/a y su estilo
de aprendizaje.
4. Motivación: capacidad de motivar y generar interés en un grupo concreto de
alumno/as.
5. Diseño y presentación: el diseño de la información audiovisual favorece el
adecuado procesamiento de la información.
6. Usabilidad: facilidad de navegación, interfaz predictiva para el usuario y
calidad de los recursos de ayuda de la interfaz.
7. Accesibilidad: el diseño de los controles y la presentación de la información está
adaptada para discapacitados y dispositivos móviles.
8. Reusabilidad: capacidad para usarse en distintos escenarios de aprendizaje y
con alumno/as de distintos bagajes.
9. Cumplimiento de estándares: Adecuación a los estándares y
especificaciones internacionales.
Los resultados se pueden publicar por variables separadas o su promedio general. Este instrumento puede ser aplicado por un evaluador o páneles de ellos, en cuyo caso se recomienda seguir el modelo convergente de participación para la evaluación colaborativa.

Otras aproximaciones como la de Reeves, propone un marco basado en 14 dimensiones: epistemológica, filosofía pedagógica, sustento psicológico, orientación a objetivos, validez experimental, rol del instructor, flexibilidad de programa, valor del error, motivación, adaptación a diferencia a individuales, control de aprendizaje, actividades de usuario, aprendizaje cooperativo y sensibilidad cultural.

• Conclusión

Se puede llegar a una evaluación integral aplicando uno o más instrumentos, de acuerdo con la naturaleza del OA, siempre que se incluyan los criterios psicopedagógicos, didáctico-curriculares, técnicos-estéticos y funcionales.

En la medida que los OA sean de código abierto, además de revisables, remezclables y redistribuibles, la brecha entre ellos y los REA dejará de existir.

La única vía hacia una educación abierta e inclusiva es mediante el empleo de REA en repositorios libres con estándares abiertos.


• Referencias

Cano-Zárate, J.C. 2007. Apuntes de Tecnología Educativa para las NT Cátedras de Comunicación Educativa. [en línea]. Universidad Marista. [Consultado: Octubre 24, 2011]. Disponible en: http://es.wikipedia.org/wiki/Objeto_de_aprendizaje.

CETL. 2006. Reusable Learning Objects. [en línea]. CETL. [Consultado: Octubre 23, 2011]. Disponible en: http://www.rlo-cetl.ac.uk/faqs.htm

Matta, A. y Donadi, L. 2008. Aplicaciones Del Análisis De Redes Sociales A La Gestión De Estrategias Inter-Organizacionales. [en línea]. 12º Reunión de la RedPyMEs, Argentina, 2007. [Consultado: Septiembre 30, 2011]. Disponible en: http://redpymes.org.ar/R12/12-008.pdf.

Wiley, D. 2010. Openness and Analytics: The Future of Learning Objects. [en línea]. LACLO 2010. Brigham Young University. [Consultado: Octubre 26, 2011]. Disponible en: http://www.slideshare.net/opencontent/laclo-2010-openness-and-analytics-the-future-of-learning-objects

• Créditos
Las caricaturas fueron dibujadas por Larry Lugo.