domingo, 27 de julio de 2014

La planificación según el Decreto 492

decreto-492

La planificación en Venezuela.
Decreto 492 (30/12/1958)

Beatriz Valdez

Si bien es cierto que la planificación se instuticionaliza en América Latina con la Alianza para el Progreso, a partir de 1961, en nuestro país los esfuerzos por hacer de la planificación un instrumento para la promoción del desarrollo económico y social se institucionaliza mucho antes. Así, en el Decreto 492 del 30 de diciembre de 1958 se establece que es tarea del Ejecutivo Nacional tanto la planificación del desarrollo económico y social como la coordinación de las distintas actividades que sean necesarias para llevar a cabo esa tarea. Para el Decreto, según se estipula en los primeros artículos:

  • La Planificación y Coordinación implica la armonizar el ritmo y de la forma de ejecución de los proyectos, así como el uso de los métodos uniformes de programación establecios por los organismos centrales de coordinación y planificación. Implica también vigilancia, hoy día diriamos evaluación, que el Ejecutivo Nacional solicitara.
  • la planificacion "tiene por base una labor de análisis, proyecciones y formulación de metas generales" las cuales han de ser "complementadas con las consultas de los sectores públicos y privados" y "la preparación anual del presupuesto por programa".

En otras palabras, el Decreto 492 establece las bases de la planificación tal como se entendía desde la CEPAL durante la década del 50.

La tarea de la planificación no se ejecutaría sólo al nivel del gobierno central sino que el Ejecutivo Nacional tendría la obligación de procurar y facilitar las diposiciones y los métodos de la planificación -aunque lo correcto sería hablar de métodos de programación, y así se respeta el espíritu del Decreto- para los gobiernos regionales y locales.

En el Decreto, además, se establece en cierta forma el oficio del planificador/programador, permitiendonos saber quiénes pueden ser considerados como tales:

"Se considerán de planificación (...) los empleados de cualquier categoría que, dentro de la administración pública y de los institutos autónomos, tengan como atribución específica la de preparar programas de trabajo, hacer investigaciones con este mismo objeto y vigilar la ejecución de dichos programas por orden y para la información de un inmediato superior jerárquico" (subrayado nuestro).
Esta es una tradición que en cierta forma se mantiene en la administración pública venezolana, según puede verse en los manuales de descripción de cargos de diferentes organismos de la administración pública (véase por ejemplo la descripción del cargo que hemos obtenido del Manual de Cargos de la Universidad de Los Andes, en la parte final de este post).

El Decreto además valora la experiencia "se preferirán los funcionarios de más amplia experiencia, y se podrán mantener en cargos de asesoría y consulta personas en edad de retiro" Y no descuida la formación para esta tarea pues los planificadores "recibirán adiestramiento y prácticas especiales de programación."

Finalmente, de acuerdo con el Deceto la máxima instancia de la planificación "la conforman Presidente de la República en Consejo de Ministros", quienes ejerecen "la suprema coordinación de la planificación y de ejecución de programas gubernamentales". Para ello contaría con el auxilio de la Oficina Central de Coordinación y Planificación. Los miembros de esta oficina deben ser "venezolanos, mayores de treinta años y de reconocida competencia en materia de programación" designados por el Presidente de la República. La Oficina conformaría un Directorio cuyos miembros se renovarían por terceras partes cada dos años.

Este es un sistema altamente centralizado, e imbuido con un espíritu positivista al mejor estilo de Auguste Comte.

Vea el decreto 492
Descripción del cargo de planificador en la ULA

martes, 15 de abril de 2014

Social Media Mining with R

Dannemann, N and Heimann, R. (2014). Social Media Mining with R, Kindle Edition: File Size: 1414 KB,

One of the trends in the analysis of human intelligence states that cultural products -and language is one of those, widely mediate not only our thoughts, but also mould our representation of reality (Bruner, 1991). This trend argues, according to Bruner, that every individual's working intelligence can only be understood by taking into account the

"reference books, notes, computer programs and data bases, or most important of all, the network of friends, colleagues, or mentors on whom [this working intelligence]leans for help and advice" (p. 3)
If we understand intelligence, beyond the narrow academic skill, which is mostly based upon book learning and test taking (Wikipedia), and define it as
"a broader and deeper capability for comprehending our surroundings --`catching on,' `making sense' of things, or `figuring out' what to do" (Ib.)
one way to understand how people are creating their reality and predict it, is to investigate those sources of information and, when possible, the network of friends.

The WWW with its 1.7 billion pages (worldwidewebsize.com) has become that source of information and a "place" to investigate the networks of friends on whom people are leaning for help and advice today. The WWW, provides not only physical and tangible products but also ideas and perspectives. Baby Boomers and Millennials, people who were born between 1977 and 1995, equally search on the Web before making decisions (Bazaar Voice, 2012). While 71% of the Baby Boomers use the information collected to buy in stores, Millennials, who are constantly connected and highly dependent on social media, prefer to buy online (52%) (ib.). Actually, Millennials have more confidence in people's opinions about brands than they have on the information provided by companies (Ib). The Web, in short, is mentoring people in making sense of things, figuring out what to do, and catching on. Consequently, to understand, serve, and predict individuals working intelligence today, we need to mine the WWW.

This is not an easy task because although there are a lot of information about mining text, in general, and the Web, this information, nevertheless, tends to focus on algorithms and model developments, which makes it a highly specialized information and out of reach of common people. Here is where Social Media Mining with R, written by Nathan Danemman and Richard Heimann, comes into play. This book offers us some insights about the theory behind mining the Web, specifically social media, suggests an open source and free software for doing it - R, as well as three case of studies from which we can grasp the procedure, all these in only 120 pages.

In three of the six chapters, the authors provide us with a short background about their approach to social data mining. Among the topics discussed, we can find why the Web is an extraordinary source of information for opinionated social data, meaning data generated by people or by their interactions with which they expose their sentiments, evaluations and opinions. This data is produced in real time as well as in big scale. Following the tradition of social science, the authors intend to use social media data to ask and answer questions on individual and group level behavior. Danemman and Heimann are aware of the pitfalls and failures of social media data; consequently, they devote an entire chapter to discuss them. They also illustrate the differences between traditional social data commonly used in social science and social media data. They advocate for the latter despite its limitations, used with creativity, curiosity and a dose of healthy skepticism, because it is available and can help answer vast majority of emerging questions related to business, politics, and social life (p. 55), questions for which actually there is no traditional social data.

In two chapters, 2-3, the authors introduce us to R, and teach us how to collect tweets using the package twitteR. Regrettably, the procedure they provide to get the Oauth for Twitter does not work, and generates the same message error that has been posting on different R blogs and e-mail lists lately. It does not mean that readers won't finally figure out how to harvest tweets but it is not going to be easy. In any case, it is worth reading chapter 3 and getting an idea about the possible outcomes from this analysis. Finally, in chapter 5 and 6, the authors gave us the framework to cope with social media data. In chapter 5, they give us the fundamentals to extract sentiments as well as the theoretical foundations to understand the techniques they will apply in chapter 6. There are three methods suggested. Two unsupervised learning (processes that do not need previous data to generate an outcome), a lexicon-based sentiment approach and an Item Response Theory for Text Scaling, ITS - and a supervised one, a Naïve Bayes Classifier. The first method consists on counting the opinion words from a subset of data from a particular source (p. 60). The ITS approach takes the previous opinions of people on a given topic and according to the sentiments they have used, locates them, or the documents, in a continuum scale that represents the author's sentiment toward the topic under study (p. 63). As for the Naïve Bayes Classifier, it is used to classify new observations, in this case opinionated data, based on existing data.

Finally, chapter six wraps up everything discussed in chapter 5. The authors use two different social media data as case of studies. The Beige Book Summary of Commentary on Current Economic Conditions, published by the Federal Research Board (FRB), and 4000 tweets hashtagged as #prolife and #prochoice. The authors apply the lexicon-based sentiment approach to the Beige Book, and the ITS and the Naïve Bayes Classifier to the tweets. Danemman and Richard Heimann take us by the hand and guide us step by step through each of these methods, so that we can even calculate how much RAM we may need depending on our data. Each code, which can be downloaded from the publisher web page, is fully explained, so that we can "see" what we are doing. I downloaded the code, but R complains with a message indicating a deprecated function/command in the R sources provided.

I recommend this book to anybody who wants to start this fascinating task of mining social data and to capture the reality created by people in almost real time. You can read in in 4-6 hours, and depending on your ability to quickly catch up with R, two or three days to replicate the case studies. Totally beginners will have some problems, though.

References

Baazar Voice. (2012). Talking to Strangers. Millennials Trust People Over Brands. In: http://www.semiootika.ee/sygiskool/tekstid/bruner.pdfhttp://resources.bazaarvoice.com/rs/bazaarvoice/images/201202_Millennials_whitepaper.pdf

Bruner, J. (1991). The Narrative Construction of Reality. In: Intelligence In.http://en.wikipedia.org/wiki/Intelligence

The size of the World Wide Web (The Internet). (2014). In: http://worldwidewebsize.com/

miércoles, 26 de marzo de 2014

SICAD 2

¿Qué se dice de SICAD II? Ejercicio de análisis del entorno

¿Qué se dice de SICAD II? Ejercicio de análisis del entorno

Recientemente el gobierno venezolano ha creado un sistema de administración de divisas adicional para agilizar la obtención de dólares y combatir al denominado Dólar paraleo. Suponga que usted trabaja en una sala de análisis estratégico, o sala situacional, y le piden monitorear la red para saber qué y quién ha dicho qué sobre el SICAD. Una buen punto de partida es Tuiter. Sin bien es cierto que hoy hay mayores problemas para obtener la autenticación que, en teoría, nos permitiría obtener tuiters en una cantidad interesante para e análisi y en forma rápida, en ocasiones como estas es posible hacer la cosecha de tuits en forma manual y tener una visión rápida de lo que s dice sobre una tema en particular. Veamos un ejemplo de cómo hacer esto.

Para ello seguiremos obtendremos la data en forma manual, la pre-procesaremos usando Notepad++ y Refine para luego realizar los análisis correspondientes, empezando con un nálisis descriptivo.

Obtención de la data.

Ubicamos en Tuiter el tópico #sicadii y copiamos todos los tuits desde el 23 hasta el 26 de febrero, a las 2 pm, hora de Venezuela. Esta información se copió y se pegó en Notepad++. Aquí iniciamos la primera fase de pre-procesamiento. Esta consistió en: *Eliminar frases típica dl tipo de información que se agrega en el tuit (foto, imagen incrustrada, etc),

  • Colocar todo el texto en minúscula
  • Eliminar los acentos diacriticos y cambiar la letra “ñ” por “ni” para evitar resultados desagradables en algunas visualizaciones
  • Eliminamos espacios adicionales

Esta data la llevamos a Refine y allí procedimos a transformarla de formato de texto formato de tabla u hoja de cálculo. Creamos un dataset con 8 variables. La data se exportó desde Refine y luego se subió a la cónsola de R. Veamos los primeros registros del dataset creado a partir de los tuits cosechados:

##          usuarioNombre       tipo    posicion        usuario enviado
## 1        veus noticias     medios        otro  @veusnoticias   9 min
## 2       noticia al dia     medios        otro  @noticiaaldia   9 min
## 3 noticiero venevision     medios   oposicion   @noticierovv  15 min
## 4          el nacional     medios   oposicion @elnacionalweb  16 min
## 5            notitarde     medios   oposicion  @webnotitarde  19 min
## 6   william castillo b periodista oficialismo       @planwac  23 min
##       fecha
## 1 26 de mar
## 2 26 de mar
## 3 26 de mar
## 4 26 de mar
## 5 26 de mar
## 6 26 de mar
##                                                                                                                           texto
## 1                            estiman que tasa de sicad ii se ubique en bs. 30 por dolar http://wp.me/p2hiyh-qd4 #sicadii #dolar
## 2              rafael ramirez: objetivo principal del sicad ii es derrotar al dolar paralelo http://goo.gl/bai9r5 @noticiaaldia
## 3                                    via @andreinasvv: #venezuela: nelson merentes: tasa de sicad ii esta entre bs 51 y 62 bsf.
## 4                                                  merentes: sicad ii esta funcionando de forma fluida http://bitly.com/1gqhmg6
## 5                   presidente del bcv dice que la tasa en sicad ii esta entre 51 y 62 bolivares http://s.notitarde.com/0x4d76f
## 6 ¿que sera de la vida del "costo de reposicion"? precios que estaban marcados con dolar a 80-90 deberian bajar a 51..sicad ii.
##                              links
## 1 wp.me/p2hiyh-qd4 #sicadii #dolar
## 2      goo.gl/bai9r5 @noticiaaldia
## 3                                 
## 4                bitly.com/1gqhmg6
## 5          s.notitarde.com/0x4d76f
## 6
## [1] "usuarioNombre" "tipo"          "posicion"      "usuario"      
## [5] "enviado"       "fecha"         "texto"         "links"

Análisis descriptivo

Hagamos un análisis descriptivo de los tuits obtenidos. Cosechamos 302 tuits. Estos han sido enviados o reenviados desde los siguientes usuarios, ordenados de mayor a menor los 15 primeros:

usuarios <- data.frame(sort(table(sicad$usuario), decreasing = TRUE))
names(usuarios) <- "frec"
head(usuarios, 15)
##                  frec
## @elnacionalweb     23
## @noticiasvenezue   21
## @eluniversal       19
## @la_patilla        17
## @unoticias         15
## @unionradionet     14
## @prodavinci        11
## @globovision       10
## @ndtitulares        9
## @yvke_mundial       8
## @albertoravell      7
## @diariotalcual      7
## @pr1merojusticia    7
## @webnotitarde       7
## @yoyopress          5

Visualicemos esta data, tomando sólo los usuarios que han enviado 3 o más mensajes:

usua <- subset(usuarios, frec > 2)
require(ggplot2)
qplot(reorder(rownames(usua), frec), frec, data = usua) + theme(axis.text.x = element_text(size = rel(1.5), 
    angle = 90))

plot of chunk unnamed-chunk-1

El Nacional, Noticias Venezuela, El Universal, La Patilla y Ultimas Noticias han ha sido los usuarios más activos en la conversación sobre SICAD 2. Entre los cincos han enviado el 31% de los mensajes, si incluimos todos los usuarios, y el 41% de ellos, si tomamos en cuenta solo aquellos usuarios que han posteados tres o más tuits.

Hemos creados dos columnas adicionales clasificando, en forma no exhaustiva, el tipo de usuario (medios, partidos politico, etc) y su psoción política. Allí en donde no identificamos de forma rápida el tipo o la posición política del usuario, colocamos “particular”, en el primer caso, y “otros”, en el segundo:

p <- data.frame(summary(sicad$tipo))
names(p) <- "frec"
q <- data.frame(summary(sicad$posicion))
names(q) <- "frec"

qplot(reorder(rownames(q), frec), frec, geom = "bar", data = q)

plot of chunk clasificacion

qplot(reorder(rownames(p), frec), frec, geom = "bar", data = p) + theme(axis.text.x = element_text(size = rel(1.5), 
    angle = 90))

plot of chunk clasificacion

La oposición ha sid más activa en la conversación sobre el SICAD II, en tanto que el tipo de usuario que ha estado más activo han sido los medios.

Combinando la información anterior con la fecha en la que cada usuario participó en la conversación obtenemos:



qplot(factor(fecha), data = sicad, fill = posicion, geom = "bar") + theme(axis.text.x = element_text(size = rel(1.5), 
    angle = 90))

plot of chunk fecha


qplot(factor(fecha), data = sicad, fill = tipo, geom = "bar") + theme(axis.text.x = element_text(size = rel(1.5), 
    angle = 90)) + scale_fill_brewer(palette = "Paired")

plot of chunk fecha


ggplot(sicad, aes(tipo)) + geom_bar() + facet_wrap(~posicion) + theme(axis.text.x = element_text(size = rel(1.5), 
    angle = 90))

plot of chunk fecha

La mayor conversación sobre el SICAD II tuvo lugar el lunes 24. Tal como se ha señalado, la conversación estuvo dominada por la oposición, si tomamos en cuenta la posicion política, y por los medios, si tomamos en cuenta, el tipo de usuario. Al cruzar tipo du usuario y posición política, observamos que en la oposición, además de los medios, otros actores politicos que han estado muy activos en la conversción, han sido partidos políticos y periodistas. En la categoria otros, la conversación es dominada por particulares y por los medios, en tanto que del lado oficialista, la participación ha sido de una encuestadora que se suele identificar con posiciones oficialista. Llama la atención la ausencia de los medios oficiales en esta conversación, al igual que la de los partidos políticos del gobierno.

En general, la participación de los diferentes usuarios, por fecha es:

qplot(reorder(usuario, fecha), fecha, data = sicad) + labs(x = "")

plot of chunk enfecha

En el próximo post, elaboraremos otras visualizaciones en la que obtendremos las relaciones entre los usuarios, quien conversó con quien, y el texto de las conversaciones. Entre tanto, veamos un par de visualizacione alternativas para el tipo de usuario y la posición política de los usuarios:

plot of chunk tablas

plot of chunk tablas2