Desde la década de 1990, los egresados universitarios estadounidenses han esgrimido posiciones más liberales, pero ir a la universidad es solo el primer paso. Para transmitir los valores liberales a toda la sociedad, las universidades deben estar a la altura de esos valores: desterrar la discriminación, acabar con las jerarquías académicas tradicionales y desbaratar las redes de poder y clientelismo.