Facebook, Twitter, YouTube y la tragedia de los comunes30/11/2017 | John Gapper (Financial Times) Es difícil mantenerse al día con la gran cantidad de escándalos, grandes y pequeños, en las que están involucradas las redes sociales como Facebook y Twitter. Se encuentran en problemas constantemente, desde el momento que permitieron involuntariamente los esfuerzos rusos para influenciar en las elecciones hasta en las que las redes mismas han sido explotadas por extremistas y pornógrafos. El último incidente afecta a YouTube, que no detuvo la publicación de vídeos que contenían comentarios de pedófilos sobre una variedad de niños y que además permitió que aparecieran anuncios publicitarios junto a ellos. Y sólo meses después de que la plataforma de vídeo de Alphabet se enfrentara a un boicot de anunciantes en respuesta a vídeos extremistas y tuviera que disculparse, compañías como Diageo y Mars de nuevo están retirando sus anuncios de la plataforma. Cada escándalo produce nuevas llamadas para que las redes sean tratadas como editores de noticias, los cuales son responsables de todo lo que aparece bajo sus nombres. Cada incidente les obliga a reforzar sus «estándares comunitarios» y a contratar más inspectores de contenido. Para el próximo año, Facebook tiene la intención de contratar a 20.000 personas en «operaciones comunitarias», su departamento de censura. A pesar de lo tentador que resulta para las publicaciones — que han perdido gran parte de su publicidad digital de los gigantes de Internet — creer que estas redes sociales deberían tratarse como equivalentes exactos, no es una suposición completamente correcta: Facebook no es un periódico con 2,1 mil millones de lectores. Pero ser una plataforma no exime a la empresa de responsabilidad. Por el contrario, hace su carga más pesada. Una mejor manera de pensar en anuncios políticos rusos, vídeos extremistas, noticias falsas y todo lo demás es como si fueran los contaminadores de los recursos, o bienes, comunes, aunque sean de propiedad privada. El término para esto es la tragedia de los comunes. Los ecosistemas abiertos que son compartidos abiertamente por comunidades enteras tienden a ser despojados. Garrett Hardin, el ecologista y filósofo estadounidense que acuñó la frase en 1968, advirtió que «la lógica inherente a los recursos comunes inmisericordemente genera una tragedia”, y añadió que: «La ruina es el destino hacia el cual corren todos los hombres, cada uno buscando su mejor provecho en un mundo que cree en la libertad de los recursos comunes”. Su principal ejemplo era el sobrepastoreo de las tierras comunes, que sucede cuando el número de agricultores y pastores que buscan utilizar el recurso de alimentación gratuita para los animales llega a ser demasiado alto. También citó a compañías que contaminan el medioambiente con aguas residuales, químicos y otros desechos en lugar de encargarse de eliminar sus propios desechos. El interés propio racional condujo a que los recursos comunes se volvieran estériles o sucios. Aquí radica la amenaza a las redes sociales. Se presentaron como recursos comunes, ofreciendo acceso abierto a cientos de millones para publicar «contenido generado por el usuario» y compartir fotos con otros. Eso a su vez produjo un efecto de red: las personas necesitaban usar Facebook y a otros medios sociales para comunicarse. Pero también atraen a los malos actores, aquellas personas y organizaciones que explotan recursos gratuitos por dinero o motivos pervertidos. Éstos son los contaminadores de los recursos comunes digitales. Y a ellos se suman personas culpables de pecados menores, como gritar fuerte para llamar la atención o atacar a otros. Como el Sr. Hardin señaló, esto es inevitable. Los recursos comunes digitales fomentan grandes beneficios comunitarios que van más allá de ser un editor en el sentido tradicional. El hecho de que YouTube sea abierto y gratuito permite que florezca todo tipo de creatividad en formas que la industria del entretenimiento no permite. La tragedia es que también faculta a los pornógrafos y propagandistas para el terror. Así que, cuando Mark Zuckerberg, el fundador de Facebook, denunció la fábrica de noticias falsas de Rusia — «Lo que hicieron está mal y no lo vamos a tolerar» — sonó como el jefe de policía en Casablanca que pretendió estar sorprendido de que se estaban llevando a cabo juegos de azar en un casino. El Sr. Hardin era un pesimista con respecto a los recursos comunes, argumentando que no había una solución técnica y que el único remedio era «la coacción mutua, acordada por la mayoría». La solución para Facebook, Twitter y YouTube sería volverse más como editores e imponer reglas estrictas con respecto al acceso y el comportamiento. Estas empresas se resisten a esto en parte porque trae una responsabilidad legal más estricta y en parte porque quieren seguir siendo recursos comunes. Pero cada vez que ocurre un escándalo, deben reforzar sus defensas editoriales y acercarse al tipo de control de contenido que cambiaría su naturaleza. Cruzarían la línea divisoria si revisaran todo antes de permitir su publicación, en lugar de eliminar el material ofensivo cuando se les avise. Aspiran a una solución técnica: usar inteligencia artificial para identificar las infracciones de derechos de autor y los insultos antes de que sus usuarios u otras organizaciones las identifiquen. Más del 75% de los vídeos extremistas eliminados por YouTube se identifican mediante algoritmos, mientras que Facebook ahora encuentra automáticamente el 99% del material del Estado Islámico y Al Qaeda que elimina de la plataforma. Es como tener una valla automatizada alrededor de un territorio para clasificar a los explotadores de los participantes legítimos. Sin embargo, las máquinas no pueden resolver todo. Si pudieran excluir a todos los malos, los recursos comunes se convertirían en otra cosa. La visión de una comunidad sin restricciones es atractiva, pero las utopías siempre son vulnerables. |
Facebook faces the tragedy of the commons30/11/2017 | John Gapper (Financial Times) It is hard to keep up with the stream of scandals, big and small, involving social networks such as Facebook and Twitter. From unwittingly aiding Russian efforts to subvert elections to finding themselves exploited by extremists and pornographers, they are constantly in trouble. The latest is YouTube failing to stop videos of children being commented on by paedophiles, while letting advertisements appear alongside them. Only months after Alphabet’s video platform faced an advertiser boycott over extremist videos and had to apologise humbly, companies such as Diageo and Mars are again removing ads. Each scandal produces fresh calls for networks to be treated like publishers of news, who are responsible for everything that appears under their names. Each one forces them further to tighten their “community standards” and hire more content checkers. By next year, Facebook intends to employ 20,000 people in “community operations”, its censorship division. Tempting as it is for publications that have lost much of their digital advertising to internet giants to believe they should be treated as exact equivalents, it is flawed: Facebook is not just a newspaper with 2.1bn readers. But being a platform does not absolve them of responsibility. The opposite, in fact — it makes their burden heavier. A better way to think of Russian political ads, extremist videos, fake news and all the rest is as the polluters of common resources, albeit ones that are privately owned. The term for this is the tragedy of the commons. Open ecosystems that are openly shared by entire communities tend to get despoiled. Garrett Hardin, the US ecologist and philosopher who coined the phrase in 1968, warned that “the inherent logic of the commons remorselessly generates tragedy”, adding gloomily that, “Ruin is the destination toward which all men rush, each pursuing his own best interest in a society that believes in the freedom of the commons.” His prime example was the overgrazing of common land, when the number of farmers and shepherds seeking to use the resource of free feed for animals becomes too high. He also cited companies polluting the environment with sewage, chemical and other waste rather than cleaning up their own mess. Rational self-interest led to the commons becoming barren or dirty. Here lies the threat to social networks. They set themselves up as commons, offering open access to hundreds of millions to publish “user-generated content” and share photos with others. That in turn produced a network effect: people needed to use Facebook or others to communicate. But they attract bad actors as well — people and organisations who exploit free resources for money or perverted motives. These are polluters of the digital commons and with them come over-grazers: people guilty of lesser sins such as shouting loudly to gain attention or attacking others. As Hardin noted, this is inevitable. The digital commons fosters great communal benefits that go beyond being a publisher in the traditional sense. The fact that YouTube is open and free allows all kinds of creativity to flourish in ways that are not enabled by the entertainment industry. The tragedy is that it also empowers pornographers and propagandists for terror. So when Mark Zuckerberg, Facebook’s founder, denounced Russia’s fake news factory — “What they did is wrong and we’re not going to stand for it” — he sounded like the police chief in Casablanca who professes to be shocked that gambling is going on in a casino. Mr Zuckerberg’s mission of “bringing us all together as a global community” is laudable but it invites trouble. Hardin was a pessimist about commons, arguing that there was no technical solution and that the only remedy was “mutual coercion, mutually agreed upon by the majority”. The equivalent for Facebook, Twitter and YouTube would be to become much more like publishers, imposing tight rules about entry and behaviour rather than their current openness. They resist this partly because it would bring stricter legal liability and partly because they want to remain as commons. But every time a scandal occurs, they have to reinforce their editorial defences and come closer to the kind of content monitoring that would change their nature. It would cross the dividing line if they reviewed everything before allowing it to be published, rather than removing offensive material when alerted. Defying Hardin, they aspire to a technical solution: using artificial intelligence to identify copyright infringements and worse before their users or other organisations flag them for review. More than 75 per cent of extremist videos taken down by YouTube are identified by algorithms, while Facebook now finds automatically 99 per cent of the Isis and al-Qaeda material it removes. It is like having an automated fence around a territory to sort exploiters from legitimate entrants. Machines cannot solve everything, though. If they could exclude all miscreants, the commons would turn into something else. The vision of an unfettered community is alluring but utopias are always vulnerable. |