Herramientas de usuario

Herramientas del sitio


weaponsofmathdstruction

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Próxima revisión
Revisión previa
weaponsofmathdstruction [2018/04/17 04:00]
zorritx traje los links
weaponsofmathdstruction [2018/07/10 14:36] (actual)
nahubjj [El congreso está perdiendo el foco con el tema Facebook]
Línea 1: Línea 1:
-[original](https://​www.bloomberg.com/​view/​articles/​2018-04-11/​congress-is-missing-the-point-on-facebook)+Dejamos enlace al [original ​aqui](https://​www.bloomberg.com/​view/​articles/​2018-04-11/​congress-is-missing-the-point-on-facebook) por las dudas y nos ponemos manos a la obra en el [pad!!!](https://​pad.rlab.be/​p/​weaponsofmathdestruction) :)
  
-## Congress Is Missing the Point on Facebook+## El congreso está perdiendo el foco con el tema Facebook
  
-#### Americans need a data bill of rights+                                                                         By NahuBJJ ​  XD
  
-I’m getting increasingly baffled and disappointed by the scandal-cum-congressional-ragefest surrounding Facebook. Instead of piling on Mark Zuckerberg or worrying about who has our personal data, legislators should focus on the real issue: how our data get used.+#### Estados unidos Necesita un acta sobre derecho de datos personales
  
-Let’s start with some ground truths that seem to be getting lost:+Cada vez me siento más desconcertado y decepcionado por el escándalo y el festival de furia que rodea Facebook. En lugar de amontonarse apuntando a Mark Zuckerberg o preocuparse por quién tiene nuestros datos personales, los legisladores deberían centrarse en el problema realcómo se utilizan nuestros datos. 
 +  
 +Comencemos con algunas verdades que parecen perderse: 
 +  
 +  ·  Cambridge Analytica, la empresa que succionó un montón de datos sobre los usuarios de Facebook, no es en realidad una gran amenaza. Es decir, si!, es bastante sórdido, pero en su mayor parte apestaba a manipular a los votantes. 
 +  
 +  ·  Muchas otras compañías,​ tal vez cientos! - e "​individuos malintencionados"​ también recopilan nuestros datos. Es mucho más probable que estos vendan nuestra información personal para fines fraudulentos. 
 +  
 +  
 +  ·   No deberíamos esperar que Zuckerberg cumpla con ninguna promesa. Ha tratado de jugar limpio de poco a nada,  tiene muchos conflictos y es un autómata ingenuo. 
 +  
 + ​· ​ Incluso si Zuckerberg fuera un santo y no le importara ni un ápice las ganancias, las posibilidades de que las redes sociales sigan siendo malas para la democracia son altísimas. 
 +  
 +  
 +Los políticos no quieren admitir que no comprenden la tecnología lo suficientemente bien como para idear regulaciones razonables. Ahora que la democracia en sí misma podría estar en juego, necesitan a alguien a quien culpar. -Inserte Zuckerberg aquí-, el punching ball perfecto. El problema es que probablemente no hizo nada ilegal, ​ Facebook ha sido relativamente abierto y obvio acerca de sus repugnantes prácticas empresariales. En su mayor parte, a nadie realmente le importaba hasta ahora. ( y si eso suena cínico, agregaré: a los demócratas no les importaba hasta que las campañas republicanas los alcanzaban o incluso los superaban con técnicas de big data). 
 +  
 +Lo que Estados Unidos realmente necesita es un diálogo más inteligente sobre el uso de los datos. Reconociendo primero que: nuestros datos ya están disponibles en a nube. Incluso si no hemos compartido nuestra propia información personal, alguien lo ha hecho por nosotros. Estamos todos expuestos. Las empresas tienen los datos y las técnicas que necesitan para predecir todo tipo de cosas sobre nosotros: nuestras preferencias políticas, nuestro comportamiento como consumidor, nuestra salud, nuestro futuro financiero. Eso es mucho poder ejercido por personas en quienes no tenemos porque confiar. 
 +  
 +Si los políticos quieren crear reglas, deberían comenzar abordando estrictamente los peores usos posibles para nuestra información personal: las formas en que pueden negarse a las oportunidades laborales, limitar el acceso al seguro de salud, establecer las tasas de interés de los préstamos y decidir quién sale de la cárcel Esencialmente,​ cualquier decisión burocrática ahora se puede hacer por algoritmo, y sobre esos algoritmos necesitamos preguntarnos mucho más de lo que Zuckerberg ​ hace. 
 +  
 +  
 +Con ese fin, propongo una Declaración de Derechos de Datos. Debería tener dos componentes:​ el primero especificaría cuánto control podemos ejercer sobre cómo se utiliza nuestra información individual para decisiones importantes,​ y el segundo introduciría reglas aplicadas a nivel federal sobre cómo los algoritmos deberían ser monitoreados de manera más general. 
 +  
 +  
 +  
 +Los derechos individuales podrían basarse en la Ley de Informes de Crédito Justos, que nos permite acceder a los datos empleados para generar nuestros puntajes de crédito. La mayoría de los algoritmos de puntuación funcionan de manera similar, por lo que este sería un modelo razonable. En cuanto a los datos agregados, deberíamos tener el derecho de saber qué algoritmos de información están utilizando para tomar decisiones sobre nosotros. Deberíamos poder corregir el registro si está mal y apelar los puntajes si creemos que son injustos. Deberíamos tener derecho a saber cómo funcionan los algoritmos: ¿Cómo, por ejemplo, cambiará mi puntaje si pierdo una factura de electricidad?​ Esto es un poco más de lo que FCRA* ahora ofrece. (*Acta Estadounidense de justo reporte crediticio, efectiva desde 1970) 
 +  
 +  
 +Además, el Congreso debería crear un nuevo regulador, en la línea de la Administración de Alimentos y Medicamentos,​ para garantizar que cada algoritmo importante a gran escala pueda superar tres pruebas básicas: 
 +  
 +  ·  Es al menos tan bueno como el proceso humano que reemplaza (esto obligará a las empresas a admitir cómo definen el "​éxito"​ para un algoritmo, que con demasiada frecuencia simplemente se traduce en ganancias) 
 +  
 +  
 +  ·  No falla desproporcionadamente cuando se trata de clases protegidas (minorías en EEUU) (como se sabe qué hace el software de reconocimiento facial); 
 +  
 +  ·  No causar externalidades negativas desproporcionadas,​ como la destrucción de la confianza de las personas en los hechos o en el sentido común. Las compañías que manejan algoritmos que podrían tener tales efectos negativos a largo plazo deberían ser monitoreadas por terceros que no estén obligados con los accionistas. 
 +  
 +No soy un experto en política, y reconozco que no es fácil comprender la magnitud y complejidad del desastre en el que nos encontramos. Sin embargo, algunas reglas simples podrían ayudar a limitar el daño.
  
-1.    Cambridge Analytica, the company the hoovered up a bunch of data on Facebook users, isn’t actually much of a threat. Yes, it’s super sleazy, but it [[mostly sucked|https://​www.bloomberg.com/​view/​articles/​2017-02-01/​trump-s-secret-sauce-is-just-more-ketchup]] at manipulating voters. 
  
-1.    Lots of other companies — maybe hundreds! — and “malicious actors” also [[collect our data|https://​www.washingtonpost.com/​news/​the-switch/​wp/​2018/​04/​04/​facebook-said-the-personal-data-of-most-its-2-billion-users-has-been-collected-and-shared-with-outsiders/?​utm_term=.fb0f17653ca3]]. They’re much more likely to be selling our personal information to fraudsters.+NOTAEl autor de la nota tiene una consultora que ofrece servicios tales como estos algoritmos de auditoria.
  
-1.    We should not expect Zuckerberg to follow through on any promises. He’s tried to make nice before to [[little actual effect|https://​www.wired.com/​story/​why-zuckerberg-15-year-apology-tour-hasnt-fixed-facebook/​]]. He has a lot of conflicts and he’s kind of a naïve robot. 
  
-1.    Even if Zuckerberg was saint and didn’t care a whit about profit, chances are social media is still just plain [[bad for democracy|https://www.bloomberg.com/​view/​articles/​2017-11-07/​maybe-social-media-is-broken]].+                                   Para contactar ​la autora ​coneil19@bloomberg.net  (Se llama Cathy O'​Neil)
  
-The politicians don’t want to admit that they don’t understand technology well enough to come up with reasonable regulations. Now that democracy itself might be at stake, they need someone to blame. Enter Zuckerberg, the perfect punching bag. Problem is, he likely did nothing illegal, and Facebook has been relatively open and obvious about their skeevy business practices. For the most part, nobody really cared until now. (If that sounds cynical, I’ll add: Democrats didn’t care until it looked like Republican campaigns were catching up to or even surpassing them with big data techniques.) + 
- +
-What America really needs is a smarter conversation about data usage. It starts with a recognition:​ Our data are already out there. Even if we haven’t spilled our own personal information,​ someone has. We’re all exposed. Companies have the data and techniques they need to predict all sorts of things about us: our voting behavior, our consumer behavior, our health, our financial futures. That’s a lot of power being wielded by people who shouldn’t be trusted. +
- +
-If politicians want to create rules, they should start by narrowly addressing the worst possible uses for our personal information — the ways it can be used to deny people job opportunities,​ limit access to health insurance, set interest rates on loans and decide who gets out of jail. Essentially any bureaucratic decision can now be made by algorithm, and those algorithms need interrogating way more than Zuckerberg does. +
- +
-To that end, I propose a Data Bill of Rights. It should have two components: The first would specify how much control we may exert over how our individual information is used for important decisions, and the second would introduce federally enforced rules on how algorithms should be monitored more generally. +
- +
-The individual rights could be loosely based on the Fair Credit Reporting Act, which allows us to access the data employed to generate our credit scores. Most scoring algorithms work in a similar way, so this would be a reasonable model. As regards aggregate data, we should have the right to know what information algorithms are using to make decisions about us. We should be able to correct the record if it’s wrong, and to appeal scores if we think they’re unfair. We should be entitled to know how the algorithms work: How, for example, will my score change if I miss an electricity bill? This is a bit more than FCRA now provides. +
- +
-Further, Congress should create a new regulator — along the lines of the Food and Drug Administration — to ensure that every important, large-scale algorithm can pass three basic tests 1 : +
- +
-    It’s at least as good as the human process it replaces (this will force companies to admit how they define “success” for an algorithm, which far too often simply translates into profit), +
-    It doesn’t disproportionately fail when dealing with protected classes (as facial recognition software is known to do); +
-    It doesn’t cause crazy negative externalities,​ such as destroying people’s trust in facts or sense of self-worth. Companies wielding algorithms that could have such long-term negative effects would be monitored by third parties who aren’t beholden to shareholders. +
- +
-I’m no policy wonk, and I recognize that it’s not easy to grasp the magnitude and complexity of the mess we’re in. A few simple rules, though, could go a long way toward limiting the damage.+
weaponsofmathdstruction.1523937624.txt.gz · Última modificación: 2018/04/17 04:00 por zorritx