Lecciones aprendidas tras casi 20 años de Twitter
Fue en 2007, cuando di de alta a mi cuenta de Twitter. Un año después de que estuviese abierto el registro de usuarios. Todo tiene un final, y noviembre de 2022 fue el inicio de lo que hoy desemboca en esto que voy a compartir.
No voy a explicar aquí las problemáticas con la toxicidad de los contenidos de Twitter hoy en día, lo que voy a intentar es recopilar ideas para no repetir errores. Me voy a centrar en Bluesky, la herramienta que podría sustituir a esa plaza pública donde se da la conversación.
Para que BlueSky mantenga el espíritu original de Twitter mientras aborda los problemas actuales de noticias falsas, cuentas fake y trolls, sería necesario implementar soluciones desde una perspectiva de diseño de experiencia de usuario (#UX).
Identidad y verificación
- Proceso de verificación de identidad. Ofrecer opciones claras para que los usuarios puedan verificar su identidad (sin necesidad de exponer información sensible en público). Esto podría incluir verificaciones de documentos, redes sociales existentes o validaciones por comunidades.
- Etiquetas de autenticidad. Mostrar insignias de verificación para cuentas verificadas, con un diseño que sea difícil de replicar o confundir.
Contenido auténtico
- Etiquetas de contenido verificado. Implementar un sistema para identificar contenido veraz, con el apoyo de verificadores de hechos, notas de la comunidad o inteligencia artificial que detecte noticias falsas.
- Avisos sobre contenido dudoso. Alertas claras cuando se comparte contenido potencialmente falso o manipulado, con enlaces a fuentes confiables.
Control de comunidad y moderación
- Moderación distribuida. Permitir que los usuarios moderen sus propias comunidades, con herramientas para bloquear, filtrar y reportar contenido en masa.
- Sistemas avanzados de bloqueo. Ofrecer funciones como bloqueos “inteligentes”, que permitan bloquear automáticamente cuentas que interactúan con trolls identificados.
Algoritmos transparentes, si los hay
- Control sobre algoritmos. Dar siempre a los usuarios opciones para personalizar su experiencia, como un feed cronológico puro, o uno ajustado a intereses específicos.
- Transparencia en recomendaciones. Mostrar por qué un contenido o cuenta está apareciendo en el feed de un usuario.
Enfoque en la privacidad
- Opciones de anonimato. Permitir a los usuarios publicar de manera anónima, pero con mecanismos para evitar el abuso (como requerir la verificación de identidad en segundo plano).
- Control sobre datos personales. Ofrecer configuraciones para que los usuarios puedan decidir qué información quieren compartir y cómo se usa.
Diseño para fomentar interacciones sanas
- Herramientas para conversaciones. Facilitar interacciones constructivas con opciones como “marcar como resolución” en debates, silenciar o “suspender” un hilo si se vuelve tóxico.
- Promoción de contenido positivo. Destacar automáticamente contenido que fomente el respeto, el aprendizaje, los hilos “saneados” y la diversidad.
Prevención de cuentas fake y bots
- Registro más riguroso. Limitar las cuentas creadas con emails temporales y utilizar captchas avanzados que no puedan ser fácilmente resueltos por bots.
- Identificación de patrones de bots. Implementar IA para detectar y actuar contra cuentas que se comportan como bots dañinos o que promuevan o fomenten la toxicidad.
Incentivos para buen comportamiento
- Sistemas de reputación. Introducir un sistema que premie a los usuarios que contribuyen positivamente (e.g., insignias, mayor visibilidad de contenido, ratings).
- Desincentivar el trolling. Reducir la visibilidad de cuentas que reciben muchos reportes o interacciones negativas confirmadas (modelo Reddit o similar).
Educación del usuario
- Guías de comportamiento. Incluir consejos sobre cómo interactuar y detectar noticias falsas al iniciar la actividad en la plataforma, a modo de onboarding.
- Formaciones o wizards sobre desinformación. Crear contenido interactivo que enseñe a los usuarios a identificar noticias falsas y fuentes confiables.
Accesibilidad
- Interfaz inclusiva. Garantizar que todas las herramientas y funciones sean accesibles para personas con discapacidades (e.g., soporte para lectores de pantalla, subtítulos automáticos, etc.).
- Controles simplificados. Diseñar configuraciones fáciles de usar para todo tipo de usuarios, desde los más técnicos hasta los menos experimentados, reduciendo la carga cognitiva necesaria para poder realizar acciones básicas.
Diseño de confianza
- Comunicación abierta. Desplegar un modelo y sistema de diseño que fomente la confianza, incluyendo al menos una página dedicada a explicar las políticas de privacidad, moderación y el enfoque en la transparencia.
- Actualizaciones constantes. Involucrar a los usuarios en la evolución de la plataforma, mediante encuestas, betas abiertas y comunicación constante.
Estoy más que abierto a modificar, añadir y revisar esta lista de propuestas para, aunque sea, difundir el mensaje con más precisión.