Per definire il concetto, una citazione di Heimans e Timms:
Che aspetto potrebbe avere una formula che favorisca gli interessi di chi partecipa a una piattaforma e della società in generale, invece di pensare solo ai suoi proprietari, inserzionisti e investitori? Dovrebbe avere tre caratteristiche fondamentali. Per prima cosa, i dati di input degli algoritmi, quelli che influenzano i contenuti che vediamo e stabiliscono le priorità, dovrebbero essere del tutto trasparenti per l’utente, compresi i criteri usati dalla piattaforma per moderare i contenuti offensivi o l’incitamento all’odio. In secondo luogo, ogni utente dovrebbe disporre di una serie di comandi che gli consentano di modificare il proprio mondo. Potrebbe scegliere di approfondire contenuti con i quali non è d’accordo. Potrebbe «filtrare» punti di vista e opinioni di coloro che sono completamente al di fuori del loro ambito. Potrebbe ridurre il sensazionalismo. Infine, tra le impostazioni predefinite dell’algoritmo ci dovrebbe essere un test sulla pubblica utilità che definisca come la piattaforma possa mettersi al servizio del suo «cerchio» piú ampio. Questo potrebbe funzionare come una versione aggiornata della televisione pubblica, che presenta contenuti testati per ridurre tensioni sociali ed estremismi e favorire il discorso civico, promuovere il pluralismo e dare visibilità a comunità trascurate. Partecipanti e super-partecipanti della piattaforma, oltre al pubblico in generale, potrebbero svolgere discussioni legittime sull’eventualità, le modalità e i termini in cui una piattaforma debba «fare la differenza» in questo modo.