El acoso escolar implica comportamientos repetitivos y agresivos para intimidar o dañar a otros, siendo el ciberacoso el tipo que se beneficia de las plataformas digitales para transmitir tales mensajes. Ambos tienen consecuencias graves sobre la salud mental y el rendimiento académico de los estudiantes, lo que requiere estrategias de prevención e intervención, incluyendo la capacitación de los docentes y el uso de herramientas para detectar estos comportamientos en los entornos universitarios. La inteligencia artificial (IA), específicamente la IA generativa, puede detectar automáticamente el lenguaje ofensivo en las plataformas digitales, convirtiéndose en una herramienta eficaz para combatir el ciberacoso. Este estudio analiza la capacidad de los miembros de la comunidad universitaria—estudiantes, docentes y personal administrativo—para percibir y detectar el ciberacoso en los mensajes de redes sociales. La investigación utiliza herramientas de IA generativa para evaluar su efectividad en reconocer patrones de ciberacoso, comparando los resultados con las evaluaciones de expertos. Los resultados indican que los docentes son los más efectivos en identificar el ciberacoso, mientras que los estudiantes muestran mayor indulgencia, lo que resalta la necesidad de intervenciones educativas más específicas. A pesar de sus limitaciones, los modelos de IA generativa demuestran un gran potencial para la detección temprana del ciberacoso. Los hallazgos subrayan la importancia de la formación dentro de las comunidades educativas y sugieren que las herramientas de IA, cuando se integran en programas preventivos, pueden mejorar la intervención temprana y promover entornos.
Bullying involves repeated and aggressive behaviors to intimidate or harm others, with cyberbullying being the kind that benefits from digital platforms to direct such messages. They both have serious consequences on students’ mental health and academic performance, demanding prevention and intervention strategies, including teacher training and the use of tools to detect these behaviors in university environments. Artificial Intelligence (AI), specifically generative AI, can automatically detect offensive language on digital platforms, resulting in an effective tool combating cyberbullying. This study investigates the capacity of members within a university community—students, faculty, and administrative staff—to perceive and detect cyberbullying in social media messages. The research utilizes generative AI tools to assess their effectiveness in recognizing cyberbullying patterns, comparing their results against expert evaluations. Results indicate that faculty members are most effective in identifying cyberbullying, while students show greater leniency, highlighting the need for targeted educational interventions. The generative AI models, despite limitations, demonstrate potential for early cyberbullying detection. Findings underscore the importance of training within educational communities and suggest that AI tools, when integrated into preventive programs, can enhance early intervention and promote safer digital environments.