Facebook comparte las directrices de determinan lo que se puede publicar y cómo actúa ante contenidos prohibidos

- Advertisement Article Top Ad -

La comunidad de Facebook cuenta con más de 2.000 millones de personas, y cuenta con unas normas que establecen lo que se puede hacer en ella y lo que no, que la compañía ha compartido este martes.

Las normas de Facebook, que pueden encontrarse en la propia red social, se aplican «en todo el mundo y a todo tipo de contenido», como señala la compañía y tienen por objetivo «fomentar que las personas se expresen y crear una comunidad segura».

La compañía ha compartido las normas, las directrices internas sobre las que basa su actuación, para que la gente pueda «entender» donde traza «la línea en cuestiones matizadas», como ha compartido en un comunicado publicado en su blog oficial.

Estas normas versan sobre el discurso del odio, la seguridad infantil y el terrorismo, entre otros tipos de contenido, y han sido establecidas por el equipo de Contenidos de Facebook, compuesto por distintos expertos en temas como los derechos humanos, los grupos de odio o en casos de violación.

- Advertisment Article Inline Ad -

VIOLENCIA Y COMPORTAMIENTO CRIMINAL

La compañía asegura que pretende «evitar todos los posibles daños en la vida real que puedan estar relacionados con el contenido de Facebook». A este respecto, se refiere a contenido violentos (violencia creíble) y al comportamiento criminal de personas u organizaciones, entre las que se encuentran la actividad terrorista, la incitación al odio, el asesinato en masa o en serie, la trata de personas o la incitación a la violencia o a actividades delictivas.

Facebook se basa en el contexto, el lenguaje y los detalles para identificar y distinguir los comentarios casuales del contenido que supone una amenaza creíble a la seguridad pública o personal, los mismos elementos que atiende en cuanto a la seguridad de sus usuarios.

En aquellos casos en los que la compañía considera que hay riesgo real de daños físicos o amenazas directas a la seguridad pública, o se trate de contenido que apoye o elogie a personas o grupos vinculadas con el terrorismo o la violencia, se procede a eliminar el contenido, a inhabilitar las cuentas y a colaborar con las autoridades locales.
SEGURIDAD

En el apartado de Seguridad, la compañía recoge el suicidio, las autolesiones o los trastornos alimenticios. Al detectar estos contenidos, por norma prohibidos en la plataforma, la compañía ofrece contenidos alternativos o incluso advertencias.

Facebook también recoge en este apartado otro tipo de contenidos prohibidos, como los relacionados con la explotación sexual (infantil y adulta) o el acoso, con especial miramiento cuando las víctimas o los destinatarios de las agresiones son menores. Facebook, en caso de ‘bullying’, anima a la víctima a denunciar el contenido, para proceder a su eliminación.

La compañía elimina las imágenes, especialmente en los contenidos de explotación sexual infantil, con el fin de evitar que otras personas se apropien de ellas de forma indebida y las vuelvan a usar. La compañía también elimina aquellos contenidos que muestren, promuevan o coordinen actos sexuales no consentidos o servicios sexuales comerciales.

Respecto a las vulneraciones de la privacidad y derechos de privacidad de imágenes, la compañía afirma que se «esfuerza por proteger tu cuenta y salvaguardar tu información personal», y aconseja a los usuarios que no publiquen «información personal o confidencial sobre otras personas sin su consentimiento previo».

CONTENIDO INAPROPIADO

Facebook, en su red social, no permite el discurso del odio, ni el lenguaje que incite al odio ya que entiende que «crea un entorno de intimidación y exclusión» que en casos extremos puede «incitar a la violencia en la vida real».

La compañía entiende por discurso de odio o lenguaje que incita al odio el tipo de contenido que ataca «directamente» a las personas considerados «con características protegidas», esto es: raza, etnia, nacionalidad, religión, orientación sexual, sexo, identidad sexual y discapacidad o enfermedad grave.

Este tipo de ataques se clasifican en la red social en tres nivel, según la gravedad. La compañía tiene en cuenta, una vez más, el contexto, dado que aceptan contenidos de tipo humorístico, o incluso motivador o educativo, en cuyo caso la compañía aconseja dejar claro el fin.

Como contenido inapropiado, Facebook también contempla la violencia gráfica o explícita, que en caso de ser permitido se acompaña de una etiqueta de advertencia; la desnudez adulta y la actividad sexual, que de forma predeterminada se elimina, especialmente cuando es de menores o no consentidas; y el contenido cruel e insensible, en cuyo caso, la compañía aconseja no publicar contenidos que puedan burlarse de personas con determinadas enfermedades, lesiones físicas graves o discapacidad.

INTEGRIDAD Y AUTENTICIDAD

La compañía trabaja por limitar la propagación del ‘spam’ comercial con el fin de evitar anuncios falsos, fraude y brechas de seguridad, así como la difusión de las noticias falsas, un asunto «complicado y delicado». La compañía entiende que en ocasiones existe «una delgada línea entre las noticias falsas y el humor o las opiniones» y por ello, no eliminan de entrada el contenido, pero igualmente están atentos a los comentarios y a la comprobación de los contenidos.

Las cuentas conmemorativas, aquellas de las personas que han fallecido, se mantienen en Facebook, pero pasan a tener como encabezad «En memoria de». A este respecto, la compañía evita los inicios de sesión no autorizados y se protege ante actividades fraudulentas.

PROPIEDAD INTELECTUAL

La compañía afirma en las normas de su comunidad que el usuario es «el propietario de todo el contenido y la información que publica en Facebook». Esto implica que el usuario puede controlar cómo se comparte lo que publica, siempre que él también mire por respectar la propiedad intelectual de los demás.

Confirmado.net / EUROPA PRESS

- Advertisement Article Bottom Ad -