Esta entrevista fue originalmente realizada en inglés por email. Por tanto, primero se ofrece una traducción al español, y al final, se encuentra la versión original.
This interview was originally conducted in English by email. The Spanish translation is provided first, followed by the original version.
Peter J. Denning se doctoró en el MIT en 1968, primera generación de doctores en ciencia de la computación. Impartió clases de ciencia de la computación en el MIT, Princeton, Purdue, George Mason y la Naval Postgraduate School. Fundó el Research Institute for Advanced Computer Science (RIACS) en la NASA-Ames, un grupo interdisciplinar de ciencia computacional que apoyó el programa espacial mediante la creación de redes, la simulación aerodinámica numérica y la inteligencia artificial. También fundó Sense 21, una red de educación e investigación sobre liderazgo en innovación que propicia la adopción de nuevas prácticas en las comunidades. Fue voluntario en ACM (Association for Computing Machinery) desde 1967, incluida la presidencia de 1980 a 1982. Ha publicado 13 libros y más de 450 artículos. Ha recibido 34 premios de educación, investigación y servicio.
Hace algunos años, a través de la lectura de sus artículos y libros es como conocí a Peter J. Denning. Cada una de sus piezas rebosan originalidad y amplitud lo cual siempre me ha sucintado interés en un informático. Estas lecturas derivaron en mi próximo libro Principios de Programación, que es un guiño a su libro Great Principles of Computing (escrito junto a Craig H. Martell). Aun cuando mi libro tiene un enfoque distinto al de él, pues se centra en los conceptos generales presentes en la actividad de programar, sus textos me sirvieron de gran estímulo para desarrollar la idea inicial.
Quiero dejar de manifiesto su enorme generosidad para conmigo, pues cada una de sus respuestas se tomó la molestia de añadir contexto, detalles históricos, que llenan los vacíos a posibles dudas; y es más, llego a sugerir alguna pregunta para hacer la entrevista más completa.
Una entrevista para conocer cómo se concibió la ciencia de la computación. Un viaje a esos recónditos lugares que usamos a diario.
¡Espero la disfruten!1
Versión traducida
Camilo: (1) Gran parte de tu carrera has tratado de descubrir los principios que subyacen a la computación. Esto quedó de manifiesto en tu libro Great Principles of Computing junto a Craig H. Martell. ¿Cómo surgió esta idea? ¿Fue provocada por la excesiva preponderancia de las tecnologías en la computación?
Denning: Desde que era un niño en el instituto sentía una fuerte atracción por comprender los principios de la naturaleza y la tecnología que me rodeaban. Recuerdo que hice una presentación a mis compañeros del club de ciencias del instituto sobre «principios básicos de la electrónica»; tuvo tan buena acogida que supe que quería ser profesor y que mi estilo de enseñanza haría hincapié en los principios. Entré en el programa de doctorado del MIT cuando estaban empezando a trabajar en Multics, un ambicioso sistema operativo que daría soporte a una utilidad informática (precursora de la actual Nube). Mientras trabajaba en la memoria virtual de Multics, me sentí especialmente atraído por identificar los principios clave en los que se basaba la nueva tecnología. Me convertí en portavoz de la necesidad de entender los sistemas operativos complejos a través de sus principios. Esto me llevó a presidir un comité para definir un curso básico de sistemas operativos para estudiantes universitarios. Lo conseguimos en 1971 y nuestro informe se convirtió en el modelo de los cursos básicos de sistemas operativos desde entonces hasta la actualidad.
En 1971 me uní al debate en curso sobre si la ciencia de la computación es ciencia, argumentando que necesitábamos hacer hincapié en nuestros principios fundamentales en lugar de en nuestra tecnología, al igual que otros campos de la ciencia. Emprendí una búsqueda para articular y formar un consenso comunitario sobre los principios «cosmic» atemporales que aparecen en cada generación de tecnología informática. El Consejo de Educación de la ACM me pidió que formara un grupo de trabajo para llevar a cabo esta tarea. Me inspiré en los trabajos de Joy of Science, basados en principios, del científico de la Tierra Robert Hazen y del físico James Trefil. Con el apoyo de la NSF (National Science Foundation) organicé el movimiento Rebooting Computing: The Magic and Joy of Computing, que abogaba por un enfoque basado en principios para ayudar a los no informáticos a entender la informática. Las conversaciones iniciadas en este movimiento acabaron dando lugar a un nuevo tipo de primer curso en los departamentos de informática, llamado CS Principles, que pasó a formar parte de un plan de estudios modernizado de AP (Advanced Placement) en la ciencia de la computación.
Ahora, para responder a su pregunta. No, no me movía el deseo de explicar la omnipresente tecnología informática. Me movía el deseo de que la ciencia de la computación fuera aceptada como una ciencia genuina en un momento en que los científicos de muchos campos se cuestionaban si la ciencia de la computación es ciencia. Hablaré más de esto en una de sus preguntas posteriores.
Camilo: (2) En su artículo The Locality Principle (2008), dijo: «La localidad es un comportamiento universal de todos los procesos computacionales: Tienden a referirse repetidamente a un subconjunto de sus recursos a lo largo de intervalos de tiempo prolongados». ¿Por qué es importante este principio?
Denning: La memoria virtual fue una de las primeras tecnologías nuevas que conocí cuando me incorporé al proyecto Multics del MIT en 1965. Para mí, era una tecnología asombrosa y elegante. No sólo automatizaba la gestión de la memoria eliminando el tedioso trabajo de «superposición» del programador, sino que proporcionaba una forma infalible de evitar fugas de memoria entre programas que compartían RAM. La superposición era el trabajo de planificar movimientos de páginas de datos a la RAM para su procesamiento y de vuelta al DISCO cuando no se necesitaban. Era un trabajo tedioso y propenso a errores. Me consternó enterarme de que los ingenieros de sistemas operativos estaban teniendo graves dificultades con el rendimiento de la memoria virtual: no sólo funcionaba más despacio que los programas con superposición manual, sino que las primeras implementaciones eran propensas al thrashing, una inestabilidad catastrófica en la que, de repente, todos los programas de la RAM estaban esperando a que se recuperaran páginas del DISCO y el rendimiento del sistema se desplomaba. Estos dos problemas amenazaban con extinguir una hermosa tecnología. Yo quería hacer algo al respecto. Dediqué el núcleo de mi investigación doctoral a averiguar cómo hacer que la memoria virtual superara a las superposiciones más inteligentes y no se estropeara.
La memoria virtual se basa en un «algoritmo de sustitución» que decide qué página eliminar de la RAM cuando hay que introducir una nueva. Los estudios experimentales sugerían que el reemplazo basado en los bits de uso de las páginas funcionaba mejor. A partir de 1966, empezamos a explicar esto en términos de una idea de localidad: que las páginas utilizadas recientemente tienen más probabilidades de ser reutilizadas en un futuro inmediato y no deben ser reemplazadas. Otros estudios experimentales revelaron que el comportamiento de la localidad se encontraba en los programas de lenguaje de alto nivel y en los métodos de resolución de problemas que utilizaban los programadores. En otras palabras, la localidad no era un artefacto del código ensamblador de bajo nivel, sino que tenía su origen en la forma de trabajar de la mente humana. En 1975, ya había acuerdo general en que la localidad es una característica universal de los programas, como se cita más arriba en su pregunta.
En una fría tarde de invierno, justo después de Navidad de 1965, me paseaba por mi estudio tratando de entender el thrashing. De repente, tuve un momento ¡Ajá! y un cambio de mentalidad. Hasta entonces, los sistemas operativos de memoria virtual utilizaban heurísticas para dividir la RAM en trozos de tamaño fijo para cada programa cargado. La heurística no funcionaba bien y permitía el thrashing. El cambio de mentalidad consistió en darle la vuelta a la situación: en lugar de que el sistema operativo le dijera a cada programa en ejecución cuánto espacio le correspondía, cada programa en ejecución le decía al sistema operativo cuánto espacio necesitaba. Se pasó del ordeno y mando (command-and-control) al demanda y suministro (demand-and-supply). Utilicé el término «conjunto de trabajo» para describir la demanda dinámica de memoria de un programa en ejecución. Definí el conjunto de trabajo como las páginas utilizadas por un proceso en una pequeña ventana de tiempo mirando hacia atrás desde el momento presente. Los conjuntos de trabajo se medían fácilmente con bits de uso, que ya formaban parte de la memoria virtual. El conjunto de trabajo era la demanda; el sistema operativo, la oferta. La política de conjuntos de trabajo cargaba programas en la RAM sólo cuando había suficiente espacio libre para contener sus conjuntos de trabajo, y protegía las páginas de conjuntos de trabajo de la sustitución. El thrashing es imposible con una política de conjuntos de trabajo. En mi tesis presenté un argumento intuitivo según el cual, cuando los programas muestran localidad, la política de conjuntos de trabajo ofrece un rendimiento casi óptimo del sistema. Unos años más tarde, pude demostrarlo. Esta fue la respuesta final (¡satisfactoria!) al enigma que me planteé en mi tesis doctoral. Hoy en día, la política de conjuntos de trabajo es el modelo de referencia para la gestión de memoria en los sistemas operativos.
A lo largo de los años, muchos experimentos en muchos sistemas operativos siempre mostraron que los programas mostraban localidad. Nunca vimos un programa que utilizara sus páginas al azar. La localidad permitió que las cachés L1, L2 y L3 aceleraran significativamente el acceso de la CPU a la RAM, y que las cachés de Internet aceleraran significativamente el acceso a los sitios web. La localidad también aparece en el diseño de los circuitos informáticos, donde todas las compuertas se disparan en función de las señales locales de las compuertas vecinas, lo que permite una gran velocidad de los circuitos. La localidad aparece en la forma en que los humanos hacemos multitarea y cambiamos de contexto en nuestros cerebros. La localidad aparece en las respuestas de ChatGPT a las preguntas: devuelve texto de un vecindario estadístico de textos entrenados que están cerca de la pregunta. Los teóricos de los algoritmos han demostrado que un procedimiento sólo puede considerarse un algoritmo si los datos a los que se accede se encuentran a una distancia limitada del punto de ejecución. En resumen, la localidad está en todos los lugares en los que los procesos computacionales acceden a los datos. Sin ella no podemos calcular, y con ella podemos garantizar el asombroso rendimiento de los sistemas informáticos y las redes.
Verdaderamente, la localidad es un fenómeno universal.
Camilo: (3) En filosofía de la ciencia de la computación, continúa el debate sobre si la computación es una disciplina científica o de ingeniería. En su artículo The Profession of Computing's Paradigm, defendías con Peter A. Freeman (2009) que la computación podría combinar las matemáticas, la ingeniería y la ciencia. ¿Indica la naturaleza compleja de la computación la existencia de algo sin precedentes?
Denning: El debate sobre si la ciencia de la computación (CS) es una ciencia comenzó a principios de la década de 1960, cuando se propusieron los primeros departamentos de CS. Una norma no escrita en las universidades es que sólo se crean nuevos departamentos cuando hay consenso para ello entre los departamentos existentes. En aquella época, los departamentos de ingeniería eléctrica solían oponerse a la CS porque pensaban que ellos ya hacían CS. Departamentos de ciencias como Física o Biología se oponían porque consideraban que el ordenador era un artefacto creado por el hombre y no un hecho natural. Los departamentos de Matemáticas se oponían porque pensaban que la única parte sustantiva de la informática son las matemáticas, que son su campo. Así que se crearon nuevos departamentos de CS mediante compromisos políticos, como la combinación de los departamentos de CS y de ingeniería o la ubicación de la CS en una facultad de ingeniería en lugar de en una de ciencias.
En la década de 1980, este campo se dedicó sobre todo a conseguir que la tecnología informática funcionara de forma fiable. Con el tiempo, los problemas de ingeniería se resolvieron y se prestó más atención a los principios científicos de la informática. Cuando se codificaron los principios de la informática, muchos informáticos se sintieron molestos porque se les seguía tratando como profesionales de la tecnología, no como científicos. Yo era uno de ellos. Dediqué una parte sustancial de mi carrera a articular los principios fundamentales de la informática y a demostrar cómo la informática cumple todos los criterios que se esperan de un campo científico. La lógica de todo esto hizo cambiar de opinión a algunos, pero no lo suficiente como para acallar el debate.
El punto de inflexión llegó en 2001, cuando el Premio Nobel David Baltimore, biólogo, empezó a decir a todo el mundo que la biología se había convertido en una ciencia de la información y que el futuro de la biología iba a depender de su capacidad para dominar la computación. Pronto se sumaron otros campos, como la física, la química, la oceanografía y las ciencias cognitivas, entre otros. Fue un cambio asombroso. En pocos años, los procesos de información pasaron de ser considerados parias de la ciencia a fenómenos naturales.
Un acontecimiento importante que preparó el terreno para esta transformación fue la aparición de la ciencia computacional en la década de 1980, una época en la que muchas ciencias intentaron avanzar aplicando la tecnología informática a su trabajo. Los científicos computacionales descubrieron que los modelos computacionales de los procesos naturales aportaban nuevos conocimientos y, en algunos casos, ganaron premios Nobel. Llegaron a la conclusión de que la computación es una tercera forma de hacer ciencia, además de la teoría y la experimentación tradicionales. Cuando David Baltimore pronunció esas palabras, la ciencia computacional ya estaba muy evolucionada y madura.
Peter Freeman y yo intentamos orientar este cambio radical, llamando la atención sobre sus raíces en la ingeniería, las matemáticas y la ciencia y mostrando que el «paradigma» de la computación es una mezcla de los paradigmas de sus tres raíces.
En respuesta a su pregunta, creo que el debate sobre si la ciencia de la computación es ciencia ha terminado. Hoy en día apenas se oye hablar de si la informática es una ciencia. Está ampliamente aceptado que la informática estudia los procesos de información, naturales y artificiales.
Camilo: (4) Tengo entendido que tiene experiencia con el plan de estudios de la ACM para la enseñanza de la informática. Con el auge de la IA y de herramientas como ChatGPT, algunos especulan con la posibilidad de que la ciencia de la computación se convierta en algo tan omnipresente que deje de ser necesaria una carrera independiente en este campo («su éxito sería su fin»). En vista de ello, ¿cómo cree que evolucionará la enseñanza de la computación?
Denning: Hay una suposición detrás de lo que citas que no acepto. Se trata de la idea de que la computación es tan general que abarca todos los demás campos. La computación es un dominio de la ciencia, pero no incluye otros campos de la ciencia. Se ocupa de los procesos de información que pueden aparecer en la naturaleza o en las máquinas. Tomemos como ejemplo la biología. La biología se ocupa de los seres vivos, cómo funcionan, cómo evolucionan y cómo interactúan en los ecosistemas. Los biólogos no ven los procesos de información como seres vivos, sino como aspectos de algunos seres vivos. Las preocupaciones de la Biología son diferentes de las de la ciencia de la computación y, sin embargo, hay cierto solapamiento. Los biólogos y los científicos de la computación se ven como colegas colaboradores.
Hay otra falacia algo más abstracta: el pensamiento de los científicos de la computación para resolver problemas es universal. El pensamiento informático no se transfiere automáticamente a otros campos. Lo comprobé de primera mano cuando trabajaba en el RIACS en los años ochenta. Nos asociamos con la dinámica de fluidos para producir mejores métodos computacionales para evaluar los flujos de aire en el diseño de aviones. Pronto mi gente se quejó de que los dinamistas de fluidos no les aceptaban como colegas, sino sólo como programadores. Lo que faltaba era que los científicos de la computación no tenían los conocimientos de dominio de la dinámica de fluidos. No eran capaces de participar plenamente en las conversaciones ordinarias de dinámica de fluidos. Afortunadamente, el impasse se resolvió cuando los científicos de la computación aprendieron suficiente dinámica de fluidos como para participar plenamente en las conversaciones del equipo.
Ahora que la ciencia de la computación es aceptada en la «mesa de la ciencia» tiene un reto educativo mayor que en el pasado, cuando no tenía que gestionar y honrar sus relaciones con tantos otros campos. Esto afectará a la evolución de los planes de estudios.
Muchas universidades reconocen ahora la importancia de la computación designándola como escuela de computación. No forma parte de las escuelas de ciencias o ingeniería, sino que es su propia escuela. Las escuelas de computación se encargan de establecer relaciones y asociaciones con departamentos de otras escuelas: el espíritu de la ciencia computacional se expande a muchos campos. Estas escuelas son pioneras en nuevos planes de estudios.
Otro aspecto de este cambio interdisciplinar puede verse en el plan de estudios de Colocación Avanzada que se ofrece en los institutos. Los estudiantes que cursan el plan de estudios y aprueban el examen AP correspondiente obtienen una exención en el curso CS1 en la universidad a la que asistan. El nuevo AP en computación hace hincapié en los «principios de la computación» y las universidades participantes han cambiado sus cursos CS1 de «introducción a la programación» a «principios de la computación».
Otro cambio está siendo estimulado por la aparición de la IA generativa: máquinas como ChatGPT pueden mantener conversaciones que parecen naturales. El modelo GPT ofrece montones de interesantes aplicaciones informáticas para artistas creativos, poetas y narradores. También ha permitido un aumento del plagio, ya que los profesores, en su mayoría, no pueden saber si el trabajo presentado ha sido escrito por el alumno o por la entidad GPT. Algunos educadores piden a otros que rediseñen sus cursos para enseñar las asignaturas como prácticas y orientar los exámenes y trabajos como demostraciones de pericia en las prácticas. Cuando se ha hecho esto, los estudiantes que plagian son fáciles de identificar. Al estudiante ya no le interesa sustituir su trabajo por el de una máquina. Esta es una de las formas en que la IA generativa puede motivar cambios en el plan de estudios.
Camilo: (5) En su libro Computational Thinking (2015), en coautoría con Matti Tedre, se destaca la importancia del pensamiento computacional en la enseñanza de la ciencia de la computación, distinguiéndolo de otros tipos de pensamiento, como el matemático. Sostiene que el CT no se limita a los conceptos de programación, sino que se extiende más allá. Sin embargo, muchos científicos de la computación creen que los retos críticos de la computación residen en las relaciones humanas. ¿Puede el pensamiento computacional ayudar a arrojar luz sobre esto y mejorar la gestión de proyectos de software?
Denning: El pensamiento computacional se ha definido como las prácticas mentales de resolución de problemas por ordenador. Esta formulación no tiene nada que ver con las relaciones humanas. ¿Puede el asesoramiento matrimonial formularse como un proceso de información y los matrimonios problemáticos transformarse mediante algoritmos? ¿Pueden gestionarse los equipos de software mediante algoritmos? Yo creo que no.
Dado el énfasis de la computación en la interacción con muchos otros campos, las relaciones humanas se vuelven importantes para el éxito de esas interacciones. A menudo, las habilidades de interacción se etiquetan como «habilidades blandas» y ocupan un segundo lugar en un plan de estudios frente a las «habilidades duras», como diseñar abstracciones y demostrar que funcionan correctamente para resolver problemas. Y, sin embargo, las «habilidades blandas» son más difíciles de dominar que las «habilidades duras».
La Interacción Persona-Máquina (HCI) es un antiguo campo de la computación centrado en el diseño de máquinas para una interacción eficaz con los humanos. El objetivo es que las interacciones sean fluidas y no provoquen malentendidos entre los usuarios humanos. La psicología tiene mucho que ver. En caso de emergencia, ¿interpretará correctamente las pantallas un piloto de avión sometido a una gran presión y tomará medidas para resolver la emergencia? ¿O malinterpretará una pantalla y cometerá un error que agrave la emergencia? La HCI ocupa un lugar destacado en la investigación sobre el «trabajo en equipo hombre-máquina», un campo candente en la IA, cuyo objetivo es combinar las capacidades de humanos y máquinas en equipos que logren objetivos que ninguno de los dos podría alcanzar por sí solo.
En mi opinión, muchos problemas de desajuste entre humanos y máquinas surgen cuando los diseñadores no comprenden las prácticas encarnadas de los humanos que interactúan con las máquinas. El diseño de sistemas informáticos se beneficiaría si los diseñadores aprendieran más sobre las prácticas humanas.
Camilo: (6) Es hábil utilizando metáforas para explicar sus ideas. ¿Cómo ha influido la creatividad en su carrera? (Pienso en su «Credo del principiante»)
Denning: Las metáforas son una herramienta bien establecida para la educación. Pueden ayudar a las personas a ver lo que les resulta invisible. Pero las metáforas deben utilizarse con precaución. Si la gente se toma la metáfora demasiado en serio, no aprende a interactuar eficazmente con lo que la metáfora ha revelado. Tomemos el ejemplo de «el cerebro es un ordenador». Nos invita a interpretar todas las acciones humanas como cálculos que tienen lugar en el cerebro. Pero los humanos hacemos muchas cosas no computacionales con nuestros cerebros. Si nos enganchamos a la metáfora, intentamos entender y explicar lo no computacional con algoritmos o procesos de información que no funcionan. Consideremos un enigma al que se enfrentan los expertos en robótica: las emociones. No hay pruebas de que las emociones sean algorítmicas. Lo mejor que pueden hacer los expertos en robótica es simular las expresiones faciales y los estilos de conversación que acompañan a las emociones. Una simulación no es la realidad.
Mencionaste el Credo de los Principiantes. No es una metáfora. Es una meditación sobre los estados de ánimo que experimenta un principiante, la persona que llega por primera vez a un nuevo ámbito de acción y sabe poco o nada sobre él. La única forma que tienen los principiantes de moverse es averiguar cuáles son las reglas y luego intentar aplicar la regla adecuada en la situación actual. Los principiantes suelen experimentar una serie de estados de ánimo en torno a su incapacidad para actuar bien, como ansiedad, inseguridad, ira, vergüenza, resentimiento y resignación. El objetivo de la mediación es hacer evidente que estos estados de ánimo se producen y pueden desviarte por completo del aprendizaje de cómo llegar a ser competente en el dominio. Muchos de mis estudiantes me han dicho que han experimentado todos esos estados de ánimo en sus cursos de posgrado y proyectos de investigación. A menudo me dicen: «¡Ojalá alguien me hubiera dicho esto hace mucho tiempo!».
Camilo: (7) Si observamos su carrera profesional, nunca se quedó estancado en una especialidad; abarcó muchas áreas de la computación. ¿Qué les diría a los generalistas que aspiran a penetrar en los principios últimos de la computación?
Denning: En la época en que yo entré, la informática aún no se aceptaba como campo independiente. Estaba en proceso de establecerse. Ni siquiera el título de «ciencia de la computación» era el nombre aceptado. Yo pertenecía a la primera generación de estudiantes de posgrado que se formaron en este nuevo campo. Para ser un buen científico de la computación en medio de esta incertidumbre, decidí que tenía que familiarizarme con todos los segmentos del campo y con lo que estaban haciendo. Muchos de mis colegas expresaron la misma convicción. Mi especialidad inicial en el campo fueron los sistemas operativos informáticos. Desde entonces he mantenido mi posición como profesor de sistemas operativos. Pero también me he mantenido al día de las ideas en juego en todas las especialidades de la computación. Evidentemente, esto se ha convertido en un reto a medida que el campo ha ido creciendo y madurando.
Llevo sesenta años en esto y he visto muchas cosas ir y venir. He sido testigo de muchos ciclos de modas y preocupaciones. Por mucho que lo intento, este campo sigue sorprendiéndome con nuevas cosas que surgen, nuevas cosas que aprender. Me considero un experto en lo que ha ocurrido en la computación en el pasado y un principiante en lo que está apareciendo.
A todos, desde el generalista al especialista, sólo puedo recomendarles: sean principiantes cada día y disfruten de las sorpresas.
Camilo: (8) Escribiste el libro The Innovator's Way con Bob Dunham (MIT Press, 2010). No parece tener mucho que ver con la computación. ¿Qué es lo que buscabas?
Denning: He desarrollado una doble carrera, con experiencia en ciencia de la computación y en liderazgo de la innovación. A principios de la década de 1990, impartía clases nocturnas en la Universidad George Mason a estudiantes que tenían trabajos a tiempo completo durante el día. Descubrí que muchos de ellos se sentían como en una caja con sus empleadores: estaban bajo presión para generar ideas innovadoras y, sin embargo, cada vez que tenían una y la presentaban al grupo nadie parecía interesado. Esto les hacía sentirse frustrados sobre su autoestima y ansiosos sobre sus carreras. Algunos me preguntaron si podía ayudarles. Me basé en mis estudios con el Dr. Fernando Flores y diseñé un curso para ellos cuya pregunta central era «¿cómo puedo producir innovaciones?». Trabajé con una nueva interpretación, que la innovación es la adopción de una nueva práctica en una comunidad. La innovación no es la invención de artefactos que puedan venderse a la comunidad. Así, la pregunta pasó de «¿cómo invento algo novedoso?» a «¿cómo consigo que los miembros de mi comunidad cambien sus prácticas?». Pude enseñar a los estudiantes cómo hacerlo y fueron capaces de generar adopciones de innovaciones.
Muchos estudiantes dijeron que el curso no sólo les ayudó a resolver sus enigmas de innovación, sino que también transformó sus vidas. A los alumnos les gustó tanto el curso que fundaron un club de antiguos alumnos al que llamamos Sense 21, abreviatura de «nuevo sentido común para el siglo XXI». Durante los diez años siguientes nos reunimos todos los meses para debatir cuestiones relacionadas con la innovación. Cada año se unía al grupo una nueva cohorte de graduados del curso. Nos disolvimos en 2002, cuando dejé George Mason y me fui a la Naval Postgraduate School (NPS). Nadie me pidió nunca que formara un grupo de antiguos alumnos de ningún otro curso que impartiera. Había algo especial en el material del curso y, como profesor, me dio una gran alegría ser testigo de cómo tantos estudiantes hacían grandes avances en su vida y en su trabajo. Seguí impartiéndolo en el NPS con un nuevo público y, finalmente, escribí lo que había aprendido en un libro (The Innovator's Way). He seguido enseñando esto y ahora estoy trabajando en otro libro que va mucho más allá del primero en su cobertura de las prácticas de los líderes de la innovación. Así que podría decirse que domino tanto la ciencia de la computación como la innovación. Y no están tan alejadas, ¿verdad? Al fin y al cabo, la computación está implicada en muchas innovaciones.
Por espacio omití la versión original en inglés. La puede encontrar aquí.
Las negritas fueron añadidas por mí.
Muy buena entervista Gracias por traer a estos grandes a que compartan sus conocimientos; y en nuestro idioma!!
Enhorabuena, Camilo. Celebro que estés haciendo este esfuerzo de entrevistar a los "Clásicos" de la disciplina, la que si algo tiene de bueno, no es solo que puede uno "pararse en los nombros de gigantes" (como los que entrevistas), sino incluso "caminar con ellos" (ahora que viven, claro) 👏👏👏