Big Data – Alma & Georges /alma-georges Le magazine web de l'Université de Fribourg Wed, 17 Nov 2021 08:32:01 +0000 fr-FR hourly 1 https://wordpress.org/?v=6.3.5 «L’exception ne doit pas devenir la règle» /alma-georges/articles/2021/lexception-ne-doit-pas-devenir-la-regle /alma-georges/articles/2021/lexception-ne-doit-pas-devenir-la-regle#respond Wed, 17 Nov 2021 08:31:40 +0000 /alma-georges?p=14796 Accentuée par l’épidémie de covid-19, la protection des données est une problématique de premier plan pour notre société. Et, même si des mesures existent déjà, la vigilance reste de mise. Jean-Philippe Walter, commissaire à la protection des données du Conseil de l’Europe et ancien préposé fédéral suppléant à la protection des données et à la transparence, ouvre des perspectives, lors d’une conférence organisée par la Bibliothèque cantonale et universitaire et la Fachschaft Jus, le 25 novembre 2021.

La question de la protection des données ne date pas de l’arrivée de la covid. Quels en sont les enjeux principaux?
Non, le débat autour de la protection des données a débuté dans les années 70 avec l’adoption des premières lois de protection des données en Suède et dans le Land de Hesse. La Convention du Conseil de l’Europe pour la protection des personnes à l’égard du traitement de données à caractère personnel a été ouverte à la signature le 28 janvier 1981 (Convention 108). En Suisse, Genève et Vaud furent les premiers cantons à adopter une législation en la matière, au début des années 1980. La loi fédérale sur la protection des données est entrée en vigueur le 1er juillet 1993.

L’objectif de la protection des données est de protéger toute personne lors du traitement de données personnelles la concernant, afin que ses droits humains et ses libertés fondamentales, notamment son droit à la vie privée et à la dignité soient pleinement respectés. Avec la numérisation de la société, l’un des enjeux majeurs est de garantir à chacun·e la maîtrise sur les données qui la ou le concernent et donc son autonomie dans ses décisions et ses choix. Le développement de l’Intelligence artificielle, le profilage systématique des individus, l’observation et le traçage quasi permanents de nos activités, de nos déplacements et de nos comportements font partie des principaux défis auxquels nous sommes confrontés·e·s.

En quoi la pandémie a-t-elle changé la donne?
La pandémie contribue à une prise de conscience de l’importance du respect du droit à la protection des données et à la vie privée même en situation de crise. Elle permet de vérifier la solidité de nos législations de protection des données et des principes qu’elles renferment face à l’urgence sanitaire. Il ne s’agit pas d’opposer la protection des données à la protection de la santé publique, mais de trouver un juste équilibre entre les mesures nécessaires de lutte contre la pandémie et la protection des droits humains et des libertés fondamentales. Cette recherche d’équilibre nécessite, en particulier, une grande agilité et réactivité des autorités de protection des données, qui doivent, de manière continue, jouer leur rôle de conseiller et d’autorité de surveillance pour donner rapidement des réponses aux sollicitations découlant de la crise actuelle.

Cette méfiance dans la manière dont l’Etat ou des entreprises privées mandatées par celui-ci traitent les données personnelles s’exprime de manière très virulente… sur les réseaux sociaux. Comment expliquer cette discrépance?
Cette méfiance reste le fait d’une minorité, certes non négligeable, qu’on ne peut ignorer. Les réseaux sociaux sont certainement un facilitateur, voire un accélérateur de l’expression de cette méfiance. Elle n’est pas propre à la pandémie, mais s’inscrit dans un mouvement plus général de contestation des autorités qui peut nuire au fonctionnement de notre Etat de droit et de nos institutions démocratiques, voire remettre en cause nos libertés. Il y a aussi une part d’irrationnel et de contradictoire dans ces comportements et ces réactions de méfiance. Je constate, en effet, que nombreux sont celles et ceux qui, par exemple, remettent en question certaines applications de traçage des contacts ou le certificat sanitaire et qui n’hésitent pas à utiliser de nombreuses applications bien plus voraces en données personnelles ou qui publient sur les réseaux sociaux des informations susceptibles de révéler des pans entiers de leur vie privée. De ce fait, ils enrichissent les grandes entreprises du numérique pour qui les données personnelles constituent la matière première de leurs activités et contribuent ainsi à renforcer le «capitalisme de surveillance».

Que faire pour apaiser les esprits? Est-ce le rôle de l’Etat?
Je pense qu’un gros effort d’explication et de transparence par rapport aux mesures qui sont mises en place doit être entrepris. La transparence est indispensable pour (re)gagner la confiance des citoyennes et citoyens. C’est la responsabilité des autorités de décision et des entreprises de se comporter et d’agir de manière à gagner la confiance de toutes et tous. Les autorités de protection des données ont également un rôle fondamental à jouer dans la confiance que les personnes concernées peuvent avoir en ces systèmes.

La littératie des données représente-t-elle une piste? Comment permettre aux gens d’acquérir les connaissances nécessaires à la maîtrise de leurs propres données et à la compréhension du système?
L’éducation au numérique est cruciale et doit toucher toutes les couches de la population. Il doit s’agir d’une priorité dans l’enseignement et la formation, dès le début de la scolarité et tout au long de nos existences. Il faut ainsi mettre en place des politiques publiques inclusives pour offrir de manière continue des possibilités pour toutes et tous de se former et comprendre les enjeux autour des données personnelles. Sans cela, nous risquons d’exclure nombre d’entre nous de l’accès à la connaissance nécessaire à une utilisation responsable des technologies de communication et d’information.

Le pass ou certificat covid est-il un élément qui bouge les lignes de la protection des données personnelles en Suisse? Pensez-vous que la population le perçoit comme une intrusion à la vie privée?
Le pass ou certificat covid alimente les discussions autour du respect du droit à la protection des données. Je ne crois pas qu’il change fondamentalement la perception de la protection des données en Suisse. Il n’a en aucun cas accéléré l’urgence de réformes à faire autour du numérique. La révision de la loi fédérale sur la protection des données, adoptée en septembre 2020 par le Parlement fédéral, tarde, par exemple, à entrer en vigueur et plusieurs cantons n’ont pas encore adapté leur législation aux exigences actuelles.

Au sein de la population, certains considèrent le pass comme une atteinte grave à leur vie privée. D’autres pensent le contraire. A mon sens, le pass constitue, certes, une atteinte à la vie privée. Il s’agit cependant d’une atteinte légère et proportionnée qui permet de retrouver et d’exercer d’autres libertés. Il serait par contre inadmissible que les applications de traçage aux fins de lutte contre la pandémie et l’obligation d’un tel certificat deviennent la règle et perdurent dans le temps. L’exception ne doit pas devenir la règle. Le risque existe et exige une grande vigilance de toutes et tous. Les autorités de protection des données devront s’assurer régulièrement que tel ne sera pas le cas, en informer le public et ne pas hésiter à dénoncer et sanctionner les éventuels abus.

__________

  • de Jean-Philippe Walter
  • La aura lieu le 25 novembre à 18h30, à l’auditoire B du campus de Miséricorde. Vous pouvez envoyer vos questions à BCU_socialmedia@fr.ch.
]]>
/alma-georges/articles/2021/lexception-ne-doit-pas-devenir-la-regle/feed 0
«L’analyse de données est devenue incontournable dans l’économie» /alma-georges/articles/2020/lanalyse-de-donnees-est-devenue-incontournable-dans-leconomie /alma-georges/articles/2020/lanalyse-de-donnees-est-devenue-incontournable-dans-leconomie#respond Mon, 30 Mar 2020 09:06:55 +0000 https://www3.unifr.ch/alma-georges?p=10666 Alors que de plus en plus de données sont disponibles sur le comportement des consommateurs et des entreprises, l’analyse de ces données est devenue un enjeu majeur de l’économie. Dans ce contexte, l’Unifr lance un master inédit en data analytics & economics. Lever de voile en compagnie de son pilote Berno Buechel et de son premier étudiant, Yann Costa.

Pourquoi avoir mis sur pied un cursus de master combinant l’analyse de données aux théories économiques d’analyse du marché et des entreprises?
Berno Buechel: Le monde est en plein changement. Deux grands trends se démarquent. D’une part, de plus en plus de données sont disponibles sur le comportement des consommateurs et des entreprises, et il existe des techniques de plus en plus perfectionnées pour analyser ces données. D’autre part, les structures de marché connaissent une mutation radicale en raison du nouveau rôle des plateformes en ligne. Ce double développement a bouleversé la façon dont fonctionnent de nombreuses entreprises. Prenez l’exemple des plateformes de réservation. Elles modifient à la fois notre façon de préparer nos vacances et la façon dont les établissements touristiques gagnent de l’argent. Or, peu de professionnels sont capables de comprendre les deux aspects sous-jacents, l’analyse de données et l’économie. D’où ce projet de Master en data analytics & economics.

Généralement, ces deux branches sont donc cloisonnées?
Berno Buechel: Pas complètement. Parmi les économistes, il y a certes une tradition d’analyse de données. Mais ce qui manque à ces économistes, c’est la faculté de programmer eux-mêmes et de faire face à des quantités de données beaucoup plus importantes que celles auxquelles ils sont habitués. A l’inverse, les spécialistes émanant de l’informatique et de la data science manquent souvent de connaissances économiques. La combinaison des deux est rare. Or, du côté des entreprises, on observe une demande en ce sens; elles engagent, certes, les deux types d’experts, mais ont parfois de la peine à les faire cohabiter.

Comment le cursus a-t-il été élaboré?
Berno Buechel: L’inspiration principale est venue de plusieurs universités américaines de renom. Constatant qu’aucun programme similaire n’existait en Suisse, des membres du Département d’économie politique de l’Unifr sont allés trouver leurs collègues du Département d’informatique. Rappelons qu’à Fribourg, nous avons la chance de pouvoir compter sur une grande expertise dans les deux domaines. A commencé un processus d’environ deux ans durant lequel le programme des cours a été élaboré.

En Suisse, l’association entre data analytics et economics est donc une première
Berno Buechel: En effet! D’autres établissements offrent des cursus alliant analyse de données et perspective managériale. Dans notre cas, l’angle est différent et inédit: il s’agit d’une perspective «économie de marché et des organisations».

Pouvez-vous donner quelques informations pratiques sur ce master?
Berno Buechel: Le Master en data analytics & economics de l’Unifr démarrera en septembre 2020 avec un premier groupe d’étudiant·e·s, comprenant Yann Costa. Divers backgrounds donnent accès à cette formation, dont les deux voies naturelles, à savoir les bachelors en économie et en informatique. Les étudiant·e·s issus de l’une de ces disciplines devront logiquement travailler un peu plus intensivement dans l’autre. Le critère d’admission principal est la motivation à apprendre; nul besoin d’être quelqu’un qui bidouille avec des ordinateurs dans son garage depuis sa plus tendre enfance… (Rires)

Yann Costa, vous êtes le premier étudiant à vous être inscrit au master en data analytics & economics; quel est votre profil?
Yann Costa: J’ai terminé en 2019 un Bachelor en gestion d’entreprise à l’Unifr. Parallèlement, je me suis toujours intéressé aux nouvelles technologies et aux entreprises actives dans ce secteur. Mais je n’ai jamais eu envie de me spécialiser en informatique, car je suis plus doué derrière un ordinateur que le nez dedans. (Rires) Ce sont plutôt les modèles d’affaires des entreprises, ainsi que les possibilités offertes par la technologie en matière de nouvelles solutions, qui me passionnent. Ce master constitue, à mon avis, la formation idéale pour quelqu’un qui souhaiterait travailler dans la partie stratégique et opérationnelle d’une entreprise technologique.

D’où est parti votre intérêt pour cette formation?
Yann Costa: J’ai lu un article de la société de conseil McKinsey consacré à un nouveau métier émergent, à savoir data translator (traducteur de données). L’article estimait à 4 millions le nombre d’emplois créés d’ici 2026 sur le marché américain, en expliquant que cette tendance haussière allait aussi concerner l’Europe. Quand j’ai vu que l’offre de l’Unifr correspondait exactement à ce métier, je n’ai pas hésité. D’autant que la brochette d’enseignant·e·s est très alléchante. A mon avis, d’ici 10 ans, travailler dans l’économie sans connaissances dans l’analyse de données sera l’équivalent de ne pas savoir utiliser une boîte mail en 2010.

Quel serait pour vous l’emploi idéal après votre master?
Yann Costa: Justement faire le pont entre deux équipes et transformer les données d’une entreprise en solutions utiles, histoire qu’elles ne dorment pas dans un ordinateur. D’autant plus si ces solutions tendent vers le développement durable.

Berno Buechel: La motivation du programme était justement de se demander quel est le besoin des entreprises. Attention, cela ne se limite pas aux grandes entreprises! Pensez à une structure telle que Comparis. En raison de son action, les grandes compagnies d’assurance sont obligées de changer leurs pratiques. Notre master ne s’adresse donc de loin pas seulement aux étudiant·e·s qui rêvent d’intégrer des multinationales technologiques.

Yann Costa: Je pourrais comprendre qu’un étudiant hésite à choisir ce master par peur de contribuer à faire gagner encore plus d’argent à des big compagnies. J’ai envie de leur dire: à l’inverse, c’est une raison de plus pour se lancer! En effet, si elles veulent avoir une chance de concurrencer les grands groupes, les PME doivent être en mesure de comprendre et d’exploiter le potentiel des données.

Peut-on envisager que certain·e·s futur·e·s titulaires du master travaillent pour des ONG ou pour le service public?
Berno Buechel: Absolument! Dans le cas du service public, on peut notamment citer les autorités de la concurrence. Car qui dit changement du marché, dit changement de la régulation du marché. Est-il acceptable qu’une plateforme de réservation touristique force les hôtels à offrir leur meilleur tarif en ligne?

Reste qu’à l’ère du big data, la question de la protection des données est sur toutes les lèvres. Allez-vous thématiser cet aspect?
Berno Buechel: Oui, il est très important de rappeler que les données ne peuvent pas être traitées à la légère. Il y a des questions éthiques, juridiques et techniques liées. Prenez le cas d’un hôpital: comment utiliser les données de patient·e·s pour faire avancer la recherche sans pour autant en apprendre trop sur ces patient·e·s? Il existe justement de nouvelles solutions technologiques intéressantes qui peuvent aider à résoudre ce paradoxe.

On associe encore souvent technologie et masculinité. Comment faire en sorte d’assurer la mixité des participant·e·s au master?
Berno Buechel: Il n’y a aucune raison pour laquelle les hommes devraient être davantage attirés par la technologie! Nous souhaitons lutter contre ce stéréotype et encourageons vivement les femmes à s’inscrire au master. A condition bien sûr qu’elles soient intéressées et motivées. C’est d’ailleurs pourquoi nous avons choisi de faire figurer une femme plutôt qu’un homme sur notre flyer de présentation.

__________

  • est professeur d’économie à l’Unifr. Il est responsable du nouveau Master en data analytics & economics, qui démarrera en septembre 2020.
  • est titulaire d’un bachelor en gestion d’entreprise de l’Unifr. Il est le premier étudiant à s’être inscrit au nouveau Master en data analytics & economics.
  • En savoir plus sur le
]]>
/alma-georges/articles/2020/lanalyse-de-donnees-est-devenue-incontournable-dans-leconomie/feed 0
Big Data: Auch im Stall von Nutzen /alma-georges/articles/2016/big-data-auch-im-stall-von-nutzen /alma-georges/articles/2016/big-data-auch-im-stall-von-nutzen#respond Fri, 15 Jan 2016 13:27:54 +0000 http://www3.unifr.ch/alma-georges/?p=1824 Big Data – alle reden davon und niemand weiss so ganz genau was das eigentlich ist. Eine Begriffsklärung lieferte auch der swissnex Day’15 nicht, der im Dezember unter dem Motto «Big Data for smart ideas» eine kunterbunte Mischung von Wissenschafts- und Zukunftsinteressierten an der Uni Freiburg versammelte. Vielmehr bot der Anlass die Gelegenheit, interessante Köpfe zu treffen, die Big Data lieber konkret nutzen als Wortklaubereien zu betreiben.

Wie ein Fisch im Wasser fühlt sich auch Philippe Cudré-Mauroux im grossen Datenmeer. Er ist Professor für Informatik an der Uni Freiburg und Leiter des und von , einer Plattform, die Big Data-Analysen auch für Big Data-Ahnungslose leicht zugänglich machen soll. «Ihr habt die Daten, wir haben die Skills» – so könnte man den Cudré-Mauroux’ Ansatz auf den Punkt bringen. Im Gegensatz zur weitverbreiteten Angst davor, dass die intelligenten Computersysteme uns die Arbeit wegnehmen oder gar den Untergang der Menschheit bedeuten, gehört Cudré-Mauroux zu den Optimisten, die in Daten und ihrer Analyse vor allem Chancen sehen – für Firmen wie auch für den einzelnen Menschen. Er gehört damit zur jungen Garde der Informatiker, die sich, ähnlich wie die Ingenieure des 19. Jahrhunderts, mit viel Drive und einem unerschütterlichen Zukunftsglauben an die Umgestaltung unserer Lebenswelt machen und im Schlagwort der «disruptiven» Geschäftsideen nichts Zerstörerisches sehen. Die Digitalisierung und Big Data sind, was das Frischdrauflos der Pioniere (und die Mischung aus Faszination und Unbehagen in der Bevölkerung) angeht, die Eisenbahn und Elektrizität unserer Zeit.

Familienplanung mit Big Data
Welche überraschenden Anwendungen so eine datenzentrierte Weltsicht erlaubt, zeigte Cudré-Mauroux am in seiner Präsentation anhand eines Beispiels aus Japan auf: Verpasst ein Bauer jeder Kuh im Stall einen Bewegungsmelder am Fuss, dann hat er sofort jede Menge Daten über die Schrittzahl seiner Tiere zur Hand. Ja gut, wird sich der alte Bauer sagen – und was soll ich damit? Der junge Bauer aber kennt einen Data Scientist und findet rasch heraus: In diesen Daten stecken überraschende Informationen. So lässt sich die Empfängnisbereitschaft der Kühe ziemlich exakt aus deren Bewegungsmuster ableiten – der Bauer weiss also genau, wann seine Tiere am fruchtbarsten sind, ohne dass er überhaupt in den Stall zu gehen braucht. Damit nicht genug: Einer eigenartigen Laune der Natur wegen hängt das Geschlecht der Jungtiere davon ab, ob die Mutterkuh in den Minuten vor oder nach dem fruchtbarsten Moment befruchtet wird, der Bauer braucht also nur den passenden Moment abzuwarten.

Wir trafen Prof. Philippe Cudré-Mauroux im Rahmen des swissnex Day’15 zu einem kurzen Gespräch und befragten ihn zur Widerspenstigkeit von Daten und zur Zukunftsvision einer intelligenten Maschine, die selber Schlüsse zu ziehen vermag und so womöglich dereinst auch Forscher ersetzen wird – oder auch nicht.

Philippe Cudré-Mauroux, mitunter hört man, dass Big Data schon jetzt Too-Big Data sei, dass man die Menge der Daten gar nicht mehr sinnvoll analysieren könne. Haben auch die Maschinen schon einen «Information Overload»?
Nein, im Prinzip nicht. Es gilt immer noch die Prämisse: Je mehr Daten, desto besser. Algorithmen müssen trainiert werden, und je mehr Daten wir dafür zur Verfügung haben, desto präziser werden die Analysen. Allerdings haben wir tatsächlich immer mehr Probleme, die vorhandenen Rohdaten zu verdauen.

Sie erwähnten in der Diskussion im Anschluss an ihre Präsentation die 80/20-Regel. Was hat es damit auf sich?
In der Datenverarbeitung stecken wir derzeit 80 Prozent des Aufwands in die Bereitstellung der Daten, in das Suchen und Aufbereiten, die eigentliche Analyse macht dann nur noch 20 Prozent der Arbeit aus. Das müssen wir besser in den Griff bekommen.

Warum ist das so?
Weil Daten in sehr vielen verschiedenen Formaten und sehr unstrukturiert vorliegen und Computer eben nach wie vor nicht gut darin sind, selbständig in den Daten zu «lesen». Erst wenn Computer in der Lage sind, Rohdaten selbst zu sortieren und die Inhalte zu strukturieren können wir das Potential von Big Data richtig ausschöpfen.

Also können Maschinen auch noch kein eigenes Wissen erwerben und logische Schlüsse ziehen. Der Job des Wissenschaftlers ist nicht in Gefahr?
Derzeit noch nicht, solche Ideen sind allerdings Zukunftsmusik. Versucht wird das natürlich schon, und wenn die vorliegende Information sehr rigide strukturiert ist, können Computer durchaus zwei Ideen logisch verknüpfen und so neue Zusammenhänge erschliessen. Aber im normalen Forschungsalltag liegt das noch in weiter Ferne.

Welche Hürde muss denn in dem Zusammenhang genommen werden?
Oft haben die Aufgaben ganz simpel mit Textverständnis zu tun. Ein Grossteil der vorliegenden Datenmengen liegt als Text vor: Social Media, Emails, oder eben auch ein Forschungspaper. Daraus selbsttätig die relevanten Informationen zu extrahieren und in eine Form zu bringen, die für Datenanalysen geeignet ist, davon sind Computer nach wie vor sehr weit entfernt.

Und wann werden wir soweit sein? Wagen Sie eine Prognose?
Lieber nicht, das Feld ist so dynamisch, da ist es schwer, Vorhersagen zu machen. Allerdings bin ich nach den grossen Fortschritten in den letzten Jahren durchaus optimistisch – die Maschinen werden nicht zuletzt immer besser darin, selber zu lernen.

Wenn sie an diese Zukunft denken, was überwiegt bei Ihnen persönlich: die Faszination oder doch das Gefühl der Unheimlichkeit?
Ehrlich: ein wenig von beidem. Vor ein paar Jahren hätte ich noch gesagt: Das ist zu futuristisch, um darüber überhaupt nachzudenken. Aber nun glaube ich tatsächlich, dass wir uns Gedanken über intelligente Maschinen machen sollten – wir werden früher mit ihnen zu tun haben als wir denken.

Sie leiten auch die Plattform DapLap. Was genau haben Sie mit dem Projekt vor?
Viele Unternehmen haben interessante Daten, doch sie sind überfordert mit deren Verarbeitung – nicht zuletzt wegen der raschen Fortschritte, die das Feld macht. Wir möchten eine Plattform bereitstellen, die durch alle nötigen Datenanalyse-Schritte führt und interessante Ergebnisse aufzeigt, mit einem Minimum an Infrastruktur für die Nutzer.

Und was könnte man damit konkret anfangen?
Nehmen Sie zum Beispiel Mobilfunkdaten und eine Technik namens Anomaly Detection. Wenn man die Bewegungsdaten der Handys in Echtzeit analysiert und mit dem «Normalfall» abgleicht, kann man erkennen, wenn zum Beispiel wegen eines Unfalls eine Strasse gesperrt ist – diese Anomalie wird sogleich erkannt. Oder, ein ganz anderes Beispiel: Fernsehserien. Netflix hat die Serie «House of Cards»mit einem System entwickelt, das aufgrund der Nutzerdaten gezielt ein Thema, einen Regisseur und einen Hauptdarsteller vorgeschlagen hat. Und das offensichtlich sehr treffsicher.


Big Data

Wie big ist Big Data? Grösser als früher, grösser als vorstellbar, grösser als alles, was noch zu handhaben ist? Die Begriffsbestimmung via blosse Datenmengen führt zu nichts – Big Data macht erst Sinn im Zusammenhang mit den algorithmischen Analysemethoden, die für diese grossen Datenmengen zum Einsatz kommen. Auf eine griffige Formel gebracht: Big Data sind Anwendungen, für die es kein Zuviel an Daten gibt. Weil man die Analysewerkzeuge mit Datensätzen trainiert, werden sie immer besser, je mehr Input sie bekommen. Das funktioniert beim Aufspüren verdächtiger Kreditkartenzahlungen ebenso wie bei automatischen Übersetzungen (Google trainierte seinen Service mit EU-Verordnungen, die in zig Sprachen vorlagen). Der Sicherheitsexperte Bruce Schneier hat unlängst noch eine ganz andere Definition vorgeschlagen: Big Data, das müsse man gleich verstehen wie Big Oil oder Big Tobacco – also Grossfirmen, die ihre Marktmacht für den eigenen Geschäftsvorteil auch gern mal missbrauchen. Die potenteste Lobbygruppe in Washington stellt unterdessen übrigens Google.


 

 

]]>
/alma-georges/articles/2016/big-data-auch-im-stall-von-nutzen/feed 0