Texte intégral
  • Non (153)
  • Oui (66)
Type de Document
  • Communication non publiée (55)
  • Article (53)
  • Partie ou chapitre de livre (27)
  • Site Web (16)
  • Voir plus
Centre de Recherche
  • Médialab (211)
  • médialab (MEDIALAB) (9)
  • Ecole Polytechnique Fédérale de Lausanne (7)
  • Centre de recherches internationales (7)
  • Voir plus
Discipline
  • Sociologie (99)
  • Sciences de l'information et de la communication (67)
  • Méthodes et statistiques (62)
  • Web (42)
  • Voir plus
Langue
  • Anglais (126)
  • Français (96)
  • Espagnol (2)
  • Portugais (2)
  • Voir plus
Projet
  • AIME (10)
in COGITO, research newletter Publié en 2018-11
6
vues

0
téléchargements
In a study of sermons made by English preachers in the 17th and 18th centuries, medialab researcher Jean-Philippe Cointet and four sociologists and historians from American and German universities mapped biblical references used by priests from Anglican and dissident churches*. This work, presented in a Poetics journal article entitled “The (Protestant) Bible, the (printed) sermon, and the word(s): The semantic structure of the Conformist and Dissenting Bible, 1660–1780”, sheds lights on a whole swath of the history of faiths, and is notable for deploying new methods of textual analysis based on the quantitative and qualitative processing of empirical data. Awarded a prize from the American Sociological Association, this study is representative of a recent research trend in the humanities and social sciences: computational hermeneutics, which analyze and interpret cultural phenomena by drawing on quantitative methods and empirical data. (First paragraph)

Publié en 2012-05
LECLERCQ Christophe
GUIDO Daniele
3
vues

0
téléchargements

24
vues

24
téléchargements
Le développement des technologies numériques engendre une longue et profonde mutation de notre rapport à la connaissance. Quelle que soit l’étiquette utilisée pour désigner ce phénomène, de nombreuses personnes s’interrogent sur les évolutions de nos pratiques académiques (Lazer et al 2009, Ollion & Bollaert 2016). Explorer les parties pour construire les touts Latour et al avancent en 2012 que de nouvelles façons de représenter et surtout de naviguer dans les données permettraient de revenir sur le rapport entre tout et partie, débat aussi vieux que la sociologie elle-même (Latour 2012). D’après ces auteurs, chaque tout n’est qu’une façon particulière de voir les parties, un trait commun qui rassemble. Un trait parmi d’autres. Le tout est une prise tellement utile, tellement signifiante qu’on en oublie qu’il cache une réduction d’une foule de particularités. Or ce tout peut aujourd’hui être décomposé ou plutôt recomposé dynamiquement dans de nouveaux moyens d’exploration des données appelés Datascapes - autrement dit paysages de données. Reprenant ces intentions, nous avons depuis 2012 conçu des outils d’analyse exploratoire de données (Tukey 1977) qui permettent de multiplier les perspectives sur un même objet.

Since its foundation in May 2009, the médialab Sciences Po works to foster the use of digital methods and tools in social sciences. With the help of existing tools and methods, we experienced the use of web mining techniques to extract data on collective phenomena. We also attended the symposiums organised by the two institutions responsible of web archiving in France: BnF and INA where we learnt about the difficulties posed to social scientists by the use of web archives. Actually our own experience in mining the live web wasn’t easier. Such difficulties, we believe, can be explained by the lack of tools allowing scholars to build themselves the highly specialized corpora they need from the wide heterogeneity of the web. The web isn’t a well-known document space for scholars or librarians. Its hyperlinked and heterogeneous nature requires to envision new ways of conceiving and building web corpora. And this notion of web corpus is a necessity for both live and archived web. If methods are not appropriate enough for analysing the live web, the problem will not be easier on an archive where the time dimension adds complexity.

3
vues

0
téléchargements

11
vues

0
téléchargements
Bruno Latour wrote a book about philosophy (an inquiry into modes of existence). He decided that the paper book was no place for the numerous footnotes, documentation or glossary, instead giving access to all this information surrounding the book through a web application which would present itself as a reading companion. He also offered to the community of readers to submit their contributions to his inquiry by writing new documents to be added to the platform. The first version of our web application was built on PHP Yiii and MySQL on the server side. This soon proved to be a nightmare to maintain because of the ultra-relational nature of our data. We refactored it completely to use node.js and Neo4J. We went from a tree system with internal links modelized inside a relational database to a graph of paragraphs included into documents, subchapters etc. all sharing links between them. On the way, we've learned Neo4J thoroughly, from graph data modeling to cypher tricks and developped our custom cypher query graphical monitor using sigma.js in order to check our data trans-modeling consistency. During this journey, we've stumbled upon data model questions : ordered links, sub items grouping necessity, data output constraints from Neo4J, and finally the limitations of Neo4J community edition. Finally we feel much more confortable as developers in our new system. Reasoning about our data has become much easier and, moreover, our users are also happier since the platform's performance has never been better. Our intention is, therefore, to share our experience with the community: - our application's data needs - our shift from a MySQL data model to a Neo4J graph model - our feedbacks in using a graph database and more precisely Neo4J including our custom admin tool [Agent Smith](https://github.com/Yomguithereal/agent-smith) - a very quick description of the admin tools we built to let the researchers write or modify contents (a markdown web editor) The research has received funding from the European Research Council under the European Union’s Seventh Framework Programme (FP7/2007-2013) / erc Grant ‘IDEAS’ 2010 n° 269567” Authors : Guillaume Plique A graduate student from Sciences-Po Lille and Waseda University, Guillaume Plique now offers the médialab his backend development skills as well as his profile in social sciences. He has been working since June 2013 on several projects such as IPCC mapping, AIME and develops scrapers aimed at social sciences researchers. https://github.com/Yomguithereal Paul Girard Paul Girard is an Information Technology engineer specialized in driving collaborations between technology and non-technical domains. He graduated from the cultural industry engineering specialisation in Université de Technologie de Compiègne in 2004 where he studied the relationships between digital technologies and society and the mechanisms of collaborations. He worked in the research laboratories federation CITU (Paris 1 and Paris 8 universities) from 2005 to 2009 where he participated in research and creation projects, collaborations between artists and engineers working with interactivity, digital pictures, virtual and augmented reality. He joined the médialab laboratory at Sciences Po at its foundation during the spring of 2009, as the digital manager of this digital research laboratory dedicated to fostering the use of digital methods and tools in Social Sciences. Since then he oversees the technical direction of the many research projects as collaborations between social sciences, knowledge engineering and information design. His present research fields are digital methods for social sciences, exploratory data analysis and enhanced publication though digital story telling. https://github.com/paulgirard Daniele Guido Daniele Guido is a visual interaction designer interested in data mining applications, text analysis and network tools. He collaborates with researchers in History and Social Science, designers and engineer to conceive and develop digital tools for the humanities. He recently joined the DIgital Humanities lab at CVCE team in Luxembourg after several years working at the Sciences-Po Medialab team in Paris, where he was engaged in the FORCCAST project (forccast.hypotheses.org) and in the AIME project (modesofexistence.org) https://github.com/danieleguido

3
vues

0
téléchargements
A python library to exchange webcorpus format

69
vues

69
téléchargements
Un rattachement ou une formation disciplinaire, pas plus que la relation à des espaces de travail et des instruments spécialisés, ne suffisent seuls à définir une culture scientifique. Ce sur quoi des chercheurs issus d’horizons divers travaillent, construit un mode singulier de conception de leurs activités, pratiques et rapport au monde. Leur réussite est irrémédiablement liée à un sujet, à la fortune que rencontre celui-ci comme innovation dans un contexte social qui le borne et qu’il crée simultanément. Comment s’organise cette (re)conversion vers une nouvelle thématique, alors que l’évolution des modes de financement privilégie aujourd’hui précisément ce cadrage ? Cette thèse propose une enquête sur la notion de « domaine de recherche », que nous définissons a priori comme le cadre des interactions entre l’activité professionnelle de chercheurs et la société autour d’un thème partagé ; elle défend sa dimension épistémique. Ce manuscrit décrit en parallèle le développement des bioénergies, une des principales formes d’énergie dites renouvelables ou encore durables, issue de la biomasse, ses acteurs et leurs jeux d’actions, dans un contexte de forte incitation à conduire une transition énergétique globale, mais aussi de controverses sociales vives. Les deux objectifs de cette thèse convergent : décrire le style de pensée inhérent à un domaine de recherche particulier est nécessaire à l’appréhension, au-delà des seuls discours et promesses, des modes effectifs de développement d’une innovation (ici la mobilisation à grande échelle de végétaux, microorganismes ou déchets pour produire des biocarburants) et donc in fine, à l’évaluation par tout un chacun, de sa pertinence.

The RICardo website (http://ricardo.medialab.sciences-po.fr) provides interactive data visualizations to explore 19th century World International Trade. This exploratory data analysis tool aims at letting scholars discover the richness but complexity of this dataset by providing : 1- a documentation under the form of an interactive data visualization tool which reveals the heterogeneity of the dataset that compiles archives from different sources through a century; 2- a progressive exploration path from the more aggregated to the most precise view: world total trade, specific country bilateral trade, pair of trade partners mirror flows discrepancies; 3- a custom graphic semiology which emphasizes the data uncertainty of the dataset. RICardo is meant for studying and discovering the history of trade and trade globalization at three level of details and with the possibility to focus on some specific country or areas by only using a web browser.

2
vues

0
téléchargements
RICardo (Research on International Commerce) est un projet dédié au commerce entre nations sur une période allant des débuts de la Révolution industrielle à la veille de la Seconde Guerre mondiale. Il allie une base historique de données commerciales couvrant tous les pays du monde à un site web qui propose une exploration de l’histoire du commerce international à partir de visualisations.

in Pouvoirs Publié en 2018-01
23
vues

0
téléchargements
Cet article propose un cadre d’interprétation des différentes significations pouvant être données à l’attribution d’un pouvoir aux algorithmes qui, de plus en plus, régissent l’organisation des informations numériques. Il propose d’abord de distinguer certaines caractéristiques du calcul algorithmique en introduisant quelques explications sur leur fonctionnement. La réflexion conduite ici propose ensuite de décomposer différents types d’enjeux portant sur la critique, l’audit et la régulation des algorithmes en tenant compte de la variété des dispositifs dans lesquels ils sont insérés.

in Sociologie Publié en 2017-03
BASTARD Irène
CHARBEY Raphaël
PRIEUR Christophe
62
vues

62
téléchargements
Cet article décrit différentes configurations d’activités sur Facebook en soulignant la diversité des manières d’utiliser la plateforme selon l’âge, le sexe et la structure du réseau amical. À partir d’une enquête quantitative portant sur les données extraites de 15 145 comptes Facebook, cet article propose une interprétation morphologique et structurale des comportements sur les réseaux sociaux en ligne. Six configurations sont identifiées à partir des différentes activités que la plateforme offre aux utilisateurs : les non-actifs, deux classes d’activité dominées par la conversation (en groupe, ou distribuée sur la page des amis) et trois classes d’utilisateurs qui privilégient l’expression sur leur propre page (égocentrés, égovisibles,partageurs). En croisant ces différentes configurations d’activités avec des indicateurs mesurant la structure du réseau des amis, on observe une forte sensibilité du réseau à l’âge de l’utilisateur et une forte spécialisation d’un sous-réseau de commentateurs réguliers chez les utilisateurs les plus actifs de Facebook.

in Democracia Digital Sous la direction de MENDONÇA Ricardo Fabrino, PEREIRA Marcus Abilio Publié en 2016-10
7
vues

0
téléchargements

Enjeux sociétaux de la recherche en informatique - Keynotes Dans cette présentation, on souhaite présenter un regard de sociologue sur les transformations sociales, politiques et culturelles du développement des mondes numériques dans nos sociétés. Les enjeux que doivent relever la fabrication d’environnements informatiques prennent aujourd’hui de plus en plus d’importance : protection de la vie privée, personnalisation des calculs, guidage des conduites, ouverture des données, éthique des automates, etc. Comment nos sociétés réagissent-elles et s’adaptent-elles à ces mutations ? Dans cette conférence, on propose une réflexion sur le rôle joué par les algorithmes du web dans la construction de l’espace public numérique. Comment les calculateurs produisent-ils de la visibilité ? A partir de quels principes le PageRank de Google, les métriques du web social ou les outils de recommandation décident-ils de donner la prééminence à telle information plutôt qu’à telle autre ? Ces différentes familles de calcul cherchent à mesurer et à valoriser des principes différents : la popularité, l’autorité, la réputation et la prédiction efficace. L’approche proposée dans cette conférence soutient que les manières de calculer enferment des représentations particulières des individus et de leur place dans nos sociétés. Comprendre les algorithmes c’est aussi un moyen de redonner du pouvoir aux utilisateurs et de favoriser une critique éclairée de la manière dont le calcul s’introduit de plus en plus dans nos vies numériques.

in Les métamorphoses des infrastructure, entre béton et numérique Publié en 2017-12
15
vues

0
téléchargements
La dimension matérielle des infrastructures numériques a été récemment soulignée par une série de travaux qui est venue lester l’économie immatérielle d’un poids considérable d’appareillages de transmission, de routeurs, de câbles sous-marins et d’équipements dont le fonctionnement requiert une ingénierie complexe et de solides réseaux organisationnels. Le rôle des tuyaux de l’Internet (Blum, 2012), l’empreinte environnementale des fermes de serveurs (Maxwell, 2012), la recentralisation géographique du réseau (Beaude, 2014) ou la gouvernance des différentes couches de protocoles permettant au réseau des réseaux de fonctionner ont été réintroduits dans le débat scientifique (DeNardis, 2014). Cette exploration des formes équipées de l’infrastructure numérique nourrit des réflexions mettant en avant les dimensions géographiques, géologiques et écologiques des processus de numérisation (Bratton, 2015), les enjeux de classification et d’organisation technique des informations dans un univers où les nomenclatures catégorielles ont été bouleversées (Kitchin, 2014), le rôle systémique de phénomènes comme le spam dans l’architecture d’Internet (Burton, 2016) ou bien la généralisation de la forme média à des artefacts de plus en plus divers (Durham, 2015). Elle invite à enraciner les dimensions immatérielles des échanges entre utilisateurs dans les différentes strates matérielles qui les rendent possibles

Publié en 2017-09
PLIQUE Guillaume
CHARLES Loïc
JACOMY Alexis
TIBLE Grégory
2
vues

0
téléchargements
TOFLIT18 is a project dedicated to French trade statistics from 1716 to 1821. It combines a historical trade database that covers French external trade comprising more than 500,000 flows at the level of partners and individual products with a range of tools that allow the exploration of the material world of the Early Modern period. TOFLIT18 is the result of the collaboration of data scientists, economists and historians. It started as a project funded by the Agence Nationale de la Recherche in 2014. http://toflit18.hypotheses.org

1
vues

0
téléchargements
This paper analyses the developmental dynamics of oncology research in Portugal during the second half of the twentieth century and early twenty first century. Grounding its conclusions in a scientometric analysis of a database of publications covering the period 1976–2015, the paper shows how the expansion of oncology research from the end of the 1990s through the 2000s is closely related to science and technology policy decisions in the country. The main actors of the institutional evolution of the field are public organizations, both hospital and academia/research-based, frequently working together. Portuguese oncology research focused especially on organ-based cancers, underlining the strong link between the laboratory and the clinic. Accordingly, translational research is a major trend in oncology research, as evidenced by the analysis of publications in major journals and inter-citation maps. Net...

11
vues

0
téléchargements
France started to compile statistics about its trade in 1716. The "Bureau de la Balance du Commerce" (Balance of Trade's Office) centralized local reports of imports/exports by commodities produced by french tax regions. Many statistical manuscript volumes produced by this process have been preserved in French archives. This communication will relate how and why we used network technologies to create a research instrument based on the transcriptions of those archives in the TOFLIT18 research project. Our corpus composed of more than 500k yearly trade transactions of one commodity between a French local tax region or a foreign country between 1718 and 1838. We used a graph database to modelize it as a trade network where trade flows are edges between trade partners. We will explain why we had to design a classification system to reduce the heterogeneity of the commodity names and how such a system introduce the need for hyperedges. Our research instruments aiming at providing exploratory data analysis means to researchers, we will present the web application we've built on top of the neo4j database using JavaScript technologies (Decypher, Express, React, Baobab, SigmaJS). We will finally show how graph model was not only a convenient way to store and query our data but also a poweful visual object to explore trade geographical structures and trade products' specialization patterns. Project funded by the French Agence Nationale de la Recherche (TOFLIT18)

in Poetics Publié en 2018-02
BEARMAN Peter
BRANDT Philipp
HOFFMAN Mark Anthony
NEWTON Key, Department Of History
14
vues

0
téléchargements
Using co-occurrence methods for identifying semantic structure in texts, we first describe the structure of the Protestant Bible, focusing on the ways in which contents of the Bible are organized in both the New and Old Testaments. We introduce a strategy for capturing the co-occurrence of nouns and verbs in windows defined by verses that progressively move across the text, from start to finish in a manner similar to reading. We then consider how Dissenters and Conformists used the Bible by locating Biblical verse in sermons printed in England during the period from 1660 to 1780. We describe how chapters are linked by themes over time, by dissenting and conformist religious communities, and map Dissenter and Conformist uses of the Bible onto its semantic structure. We show that it is possible to induce a semantic network image of the Bible, that this structure serves as a skeletal frame for interpretation, thereby highlighting different contents as central to denominations’ religious inspirations and concerns.

7
vues

7
téléchargements
Voluntary return is one of the pillars of durable solutions proposed for refugees and internally displaced persons (IDPs) under the international normative framework and human rights instruments. The Fukushima Daiichi Nuclear Accident that occurred in March 2011 following the Great East Japan Earthquake and Tsunami, displaced more than 150,000 persons as a large amount of radioactive materials were released into the sea and the atmosphere from crippled reactors. Four years later, many of these evacuees remain displaced, unable or hesitant to return home, due to radiological and social consequences caused by the disaster. This policy brief seeks to examine the case of Fukushima evacuees with a special focus on the question of return and attempts to make policy recommendations, specifically tailored to deal with the nuclear displacement. It explores ways in which genuine durable solutions can be found for their case in line with international protection guidelines for IDPs.

in Actes des 23èmes Journées francophones d'Ingénierie des Connaissances (IC 2012) Publié en 2012-06-25
DECLERCK Gunnar
AIMÉ Xavier
CHARLET Jean
2
vues

0
téléchargements
Ce texte se propose de discuter l'idée que les ontologies fondationnelles sont utiles, voire nécessaires, au bon fonctionnement des systèmes de traitement de contenus, en particulier à leur interopérabilité sémantique. Après un rappel des principales caractéristiques des ontologies, nous proposerons une liste des grandes fonctions aujourd'hui attribuées ou au moins attendues des OF, pour en discuter ensuite le bien-fondé. Nous montrerons que la possibilité de réaliser une ontologie intégrant des primitives et définitions formelles suffisamment générales et génériques (universelles) pour décrire la sémantique des concepts de domaines spécialisés du savoir est loin d'être acquise ; et que (ii) même si une telle ontologie s'avérait réalisable, il n'est pas certain qu'elle permettrait d'assurer l'IS entre systèmes, c'est-à-dire un échange de données en préservant le sens.

Notion centrale de la recherche en SHS, le corpus voit ses contours redéfinis alors que les éléments qui le constituent sont aujourd’hui le plus souvent des contenus ou données issus du web. Quelles sont les possibilités offertes par le contexte numérique, pour constituer et traiter des corpus, les méthodes de recueil de données et d’observation en sont-elles modifiées ? La taille et la dimension de représentativité d’un corpus sont-elle revisitées quand les données accessibles s’inscrivent dans des flux et se mesurent en Giga ou Tera octets, quelles unités retenir quand les données sont hétérogènes et instables ? Quels sont les instruments à disposition du chercheur pour constituer, traiter et analyser ces corpus ?

35
vues

0
téléchargements
Dans un contexte de division autour de la réforme constitutionnelle qui pose la question de son rôle, le Parlement a ouvert une commission d’enquête suite à l’affaire Benalla. Si Emmanuel Macron a souvent réaffirmé leur importance, qu'en est-il du pouvoir d'agir des parlementaires ?

in Le Monde Publié en 2012-02-03
OOGHE Benjamin
LAROUSSERIE David
4
vues

0
téléchargements

Suivant