Imprimir Republish

Demi Getschko

Demi Getschko: Un constructor de internet

Entrevista_Demi003_100Léo RamosDemi Getschko fue el primer brasileño en tener su nombre incluido en el Hall de la Fama de Internet, una distinción concedida por la Internet Society (ISoc), organización no gubernamental integrada por representantes de todo el mundo con el objetivo de promover la evolución de la web. El mérito de Getschko fue su contribución para que la red mundial de computadoras alcanzara el éxito en Brasil en sus albores. Se hallaba al frente del Centro de Procesamiento de Datos (CPD) de la FAPESP, en 1991, cuando, como él mismo expresa, “aparecieron los primeros paquetes de internet” en la sede de la Fundación en el barrio de Lapa, en São Paulo. Era el primer contacto del país con la novedad que aportaría innovaciones en distintos aspectos de la vida de la gente y de las instituciones. Por medio de acuerdos directos con la administración de las redes académicas estadounidenses, Demi Getschko y el equipo del CPD de la FAPESP obtuvieron la delegación del dominio .br, que identifica el código del país en los sitios web en los correos electrónicos.

Edad:
61 años
Especialidad:
Redes de computación
Estudios:
Escuela Politécnica de la Universidad de São Paulo (del título de grado al doctorado)
Instituciones:
Núcleo de Información y Coordinación de Ponto BR (NIC.br) y Pontificia Universidad Católica de São Paulo (PUC-SP)

Con la implementación de internet y su rápida expansión, que, en primera instancia, ocurrió en el plano académico, Getschko coordinó, aún como jefe del CPD de la FAPESP, el área de operaciones de la Red Nacional de Investigación (RNP) que interconectó a las principales universidades del país. También colaboró en la implementación y dirección de la red Academic Network de São Paulo (ANSP), proveedora de las universidades paulistas. Como partícipe de todo ese proceso, fue integrante del Comité Administrativo de Internet en Brasil (CGI) desde septiembre de 1995 hasta hoy. En 2005 recibió una propuesta para montar y desempeñarse como presidente del directorio del Núcleo de Información y Coordinación de Ponto BR (NIC.br), una entidad que es el brazo ejecutivo del CGI y coordina los servicios de la red en Brasil. En los últimos años, participó activamente en la elaboración del marco civil de internet, que se aprobó este año en el Congreso Nacional. Antes de asumir su cargo en NIC.br, también fue miembro del directorio de Internet Corporation for Assigned Names and Numbers (Icann), y luego de dejar la FAPESP en 1996, se desempeñó como director de tecnología de Agência Estado y del proveedor IG. Getschko es ingeniero eléctrico graduado en la Escuela Politécnica de la Universidad de São Paulo (Poli-USP), donde obtuvo máster y doctorado, y también es docente de la Pontificia Universidad Católica de São Paulo (PUC-SP).

¿Cómo se siente ser elegido para el Hall de la Fama de Internet?
Desde hace tres años, la Internet Society [ISoc] elige personas para el Hall de la Fama. La ISoc es una asociación fundada en 1992, concebida por Robert Kahn, Vint Cerf y Lyman Chapin [estadounidenses pioneros en la tecnología de internet], cuando internet se abrió hacia la comunidad de fuera del ámbito académico. La ISoc resolvió la creación de ese tipo de reconocimiento. Hay tres categorías distintas: pioneros, innovadores y conectores globales. La primera contempla a los que brindaron una profunda contribución a la tecnología de internet y desarrollaron los protocolos de la familia TCP/IP [Transmission Control Protocol e Internet Protocol]. Allí figuran, por ejemplo, Vint Cert, Robert Kahn, Jon Postel, Steve Crocker y otros. Los innovadores son aquéllos que desarrollaron herramientas para operar sobre la estructura básica de internet. Entre ellos hay investigadores, como por ejemplo Tim Berners-Lee, quien creó la web, una importantísima aplicación sobre internet. La tercera categoría es la de los conectores globales, formada por la gente involucrada en la difusión de la red y en el fomento de internet en varios sitios del mundo. Es en esa tercera categoría donde fue incluido mi nombre.

¿Usted es el único representante de América Latina?
Soy el segundo latinoamericano en ser nombrado. El año pasado se nominó en esa misma categoría denominada Global Connectors a Ida Holz, de la Universidad Nueva República de Montevideo, de Uruguay. Ella es bastante conocida en el área porque participó en los orígenes de muchas redes académicas. Yo fui el primer brasileño y el segundo de América Latina. Pero aclaremos algo muy importante: esa designación individual para alguien es algo absolutamente injusto, porque se trata siempre de un trabajo colectivo. Como no se puede escoger a un equipo completo, eligen a uno o dos. Por eso quiero dejar claro que nadie hace nada solo. Y yo soy uno de los integrantes del equipo que trajo las redes académicas al país, que estaba conformado por gente de la FAPESP, de la RNP [Red Nacional de Investigación], del LNCC [Laboratorio Nacional de Computación Científica], de la UFRJ [Universidad Federal de Río de Janeiro], y muchos más, que instauraron conexiones académicas en Brasil al final de los años 1980. Por algún motivo me citaron a mí, tal vez porque me desempeñé en el área en forma más o menos constante.

¿Usted forma parte de la Internet Society?
La Internet Society [ISoc] es una organización no gubernamental con sede en Estados Unidos y filiales por todo el mundo. Yo formo parte del chapter brasileño, que estimo tiene unos 300 miembros. La Internet Society central se mantiene con recursos económicos del registro de dominios bajo el .org, operado por el PIR [Public Interest Registry]. De modo que, todo lo que está registrado como .org genera recursos que son acopiados por la ISoc. Al igual que el .br genera recursos a partir del registro de dominios para el CGI y el NIC. Una de las principales actividades de la ISoc consiste en coordinar las reuniones del IETF [Internet Engineer Task Force], el organismo que trabaja en la generación de estándares de internet. El IETF está coordinado por el IAB [Internet Architecture Board], que mantiene la ortodoxia de internet, en el sentido de cumplimentar y preservar los principios originales de la red.

¿Qué vienen a ser esos principios originales de internet?
Internet fue concebida como una red abierta y única. Se espera que no se fragmente. Cuando surgen tensiones en China, en Rusia o en otros sitios, asoman amenazas de fragmentación. Internet es una red cooperativa y la raíz de sus nombres es única. Cuando uno escribe un nombre que, por ejemplo, termina en .com, el mismo tiene una única resolución: no existen dos formas de nombrar un dispositivo en la red. Además, otro principio básico radica en que siempre se mantendría neutra entre los dos puntos finales: el emisor y el receptor. Si usted se encuentra en Australia y yo en Brasil, nadie en la red tendría derecho a entrometerse en los paquetes y su contenido, en los servicios y protocolos utilizados. La función del “medio” de la red consiste en transportar información (paquetes) desde un punto de la red hasta otro. Es una gran “despachante” de estos paquetes. La red nunca analiza lo que transporta, sólo realiza el envío. Claro que, con el tiempo, aparecen cosas en medio del camino, tales como ataques intencionales a sitios web, que pueden desvirtuar algo el concepto de punto a punto, la idea original de internet. Otra fuente de tensión radica en el hecho de que internet representa una ruptura para una serie de modelos preexistentes. Uno de ellos es el modelo tradicional de generación de protocolos. La red no cuenta con un proceso formal que nuclee a gobiernos y grandes empresas de telecomunicaciones, tal como ocurre, por ejemplo, en la ITU [International Telecommunication Union], sino que es un proceso abierto a personas y entidades de cualquier área, ya sea académica, técnica o comercial, que deseen participar. Los voluntarios se reúnen tres veces al año, siempre en representación de sí mismos, no de instituciones, debaten y generan protocolos que hasta ahora, son los que sostienen y hacen crecer a la red. Otra característica que subyace apunta que, como su base está establecida a partir de protocolos abiertos TCP/IP, todos son libres de generar aplicaciones sobre esa base sin necesidad de ninguna licencia o tipo de permiso: la denominada permissionless inovation [innovación sin permiso]. Nadie consultó si podía lanzar Twitter o Facebook. ¿Se les ocurre alguna idea? Impleméntenla y súbanla a la red. Si se transforma en un éxito, muy bien, uno puede convertirse en millonario; si no, es mejor pensar en otra idea. Ésas son características típicas de internet que no existen en la telefonía o en las telecomunicaciones.

En Estados Unidos, debido al profuso crecimiento de los videos en red, surgieron propuestas para aumentar la participación recaudatoria de las empresas de telecomunicaciones. ¿Cuál es su opinión al respecto y cuál es la situación en Brasil?
Lo importante es racionalizar el tráfico en beneficio de todos. Una de las formas de hacerlo sería mediante la implementación de Puntos de Intercambio de Tráfico [PTTs], o IXP [Internet Exchange Points]. En Brasil, el punto más importante de tráfico se encuentra en São Paulo, donde ya se superaron los 500 gigabites por segundo como pico, que es una cifra muy seria. Somos el cuarto o quinto país del mundo en cuanto a la utilización de PTTs en el intercambio de tráfico. Lo que actualmente se nota es un cambio en el aspecto de la curva de tráfico en el PTT de São Paulo que es un buen reflejo de lo que ocurre en Brasil. Anteriormente se registraba un pico a las 11 a.m., descendía un poco a la hora del almuerzo, volvía a aumentar a las 14, alcanzaba un máximo a las 16 y luego comenzaba a descender, declinando hacia la madrugada. De unos seis meses para acá, el pico continúa hasta las 11:30, cae un poquito en el almuerzo, sube a las 14 y continúa haciéndolo hasta las 16:30, ahí comienza a caer y cuando son las 18:30 ó 19:00, comienza a subir nuevamente alcanzando el pico del día a  las 22 ó 23 h.

¿A qué se debe eso?
Eso ocurre porque el tráfico se ve cada vez más afectado por aplicaciones que se dedican al entretenimiento. La gente está utilizando más banda en su hogar que en la oficina, porque no ven películas durante el trabajo, pero en su casa sí. Y el domingo, que era un día con muy bajo tráfico, hoy registra un mayor tráfico que un lunes o un martes. Eso refleja una modificación en el perfil del tráfico, direccionado al área del entretenimiento y ya no tan sólo al comercio, la información, los servicios, etc. Una película utiliza mucha más banda que un acceso a una cuenta bancaria, por ejemplo. La discusión al respecto es compleja, involucra incluso un debate sobre la neutralidad. Sólo para abrir un paréntesis, al final del mes de abril tuvimos en São Paulo el NetMundial, un evento que generó un importante documento final. Yo participé en el equipo de consolidación y redacción de ese documento, que fue un proceso de búsqueda de consensos. El consenso es algo que, en teoría, no resulta inaceptable para los participantes, puede que desagrade un poco a cada uno, pero sale en forma equilibrada. En ese documento consensuado, la palabra “neutralidad” [net neutrality] no aparece, pero se preservó el importante concepto de punto a punto, que implica que no puede haber interferencia de un intermediario en el paquete de datos que se intercambia en la red. ¿Por qué no figura el concepto de neutralidad? Por el peso semántico que actualmente conlleva esa palabra. Lo que se entiende por neutralidad no es lo mismo en Estados Unidos que en Europa o en la India. Resulta difícil definirlo, y siempre habrá alguien que no acepte la definición que le otorgue otro, incluso sin saber bien cuál es. Vamos a dar un ejemplo: la neutralidad es un concepto que se entiende fácilmente cuando hablamos de telecomunicaciones, pero ese no es el caso cuando nos referimos a neutralidad en internet, donde existen innumerables capas y contextos en que la neutralidad es algo que debe mantenerse. Miren lo que ocurre, por ejemplo, con la suscripción por canales de la televisión por cable. Si mañana aparece un nuevo canal al que no me encuentro suscrito, quizá ni siquiera me entere, aunque eventualmente fuera un canal con contenido que me interese. En internet surgió hace poco tiempo, por ejemplo, Twitter. Cualquiera pudo tener contacto con ese nuevo servicio y adoptarlo o no. No hay suscripción de servicios en internet, se puede acceder a todo lo que existe en la red. Lo contrario ocurre en el mundo de la televisión por cable, que es un “jardín con muros”. Ése no es el modelo que quisiéramos para internet, por eso luchamos por su neutralidad: la red debe permanecer abierta a cualquier innovación y servicio, y éstos deben hallarse a disposición de todos los usuarios. La experiencia de cada uno de nosotros en internet debe ser siempre total. Nadie puede decir que alguien sólo puede acceder a videos de YouTube, o tener solamente acceso al correo electrónico en la red. Un “jardín con muros” limita la navegación a lo sumo a lo ya existente: si aparece algo nuevo, podría ocurrir que los usuarios ni se enteren. Y eso echa por tierra la neutralidad. En resumen, hay que pensar en la neutralidad como algo cualitativo. No podemos hacer distinción entre los contenidos, o entre los servicios. Cuantitativamente, si yo quiero una banda mayor, debo pagar más por ella. Si quiero 10 megabits por segundo, me sale más caro que 1 megabit. Pero con cualquier banda de acceso, 10 ó uno, se debe poder acceder a la totalidad de internet, sin bloqueos ni “muros”.

¿Y el marco civil de internet que se aprobó en Brasil?
El concepto y la constatación de la necesidad de un marco civil para internet en Brasil comenzaron a partir de la discusión y aprobación del decálogo del CGI. El marco civil fue objeto de un extenso debate, con varias audiencias públicas y más de 2 mil aportes individuales hasta que se acordó su formato final. Fue un proyecto de ley elaborado y discutido con gran interacción y, fundamentalmente, basado en la búsqueda de un consenso. El diputado federal impulsor del proyecto, Alessandro Molon [del Partido de los Trabajadores de Río de Janeiro], trabajó febrilmente para que el marco civil llegara a aprobarse y batalló permanentemente en todas sus etapas para mantener en pie los tres pilares fundamentales del mismo, basados en el decálogo del CGI: neutralidad, privacidad del usuario y un compromiso adecuado de la cadena de valor.

¿Qué es el compromiso adecuado de la cadena de valor?
Cuando se busca a un responsable de un abuso cometido en la red, siempre se tiende a tomar el camino más fácil o más visible. Por ejemplo, digamos que aparece un video problemático en YouTube, algo que ya ocurrió, por citar un caso, con un video de una artista en la playa, Daniella Cicarelli, hace unos siete años. Alguien se sintió ofendido por el video y acudió a la Justicia para su remoción. No voy a juzgar al video en cuestión, si es bueno o malo, pero no parece razonable sacar todo el servicio de videos [YouTube] del aire a causa de ese video específico, pero eso fue lo que determinó un juez de esa época. Ahí sale del aire el video de Cicarelli, pero también una enorme cantidad de otros videos, que nada tienen que ver con el abuso en cuestión. ¿De quién es la culpa en el caso del video de Cicarelli? No parece que sea del proveedor de videos [YouTube], sino del individuo que produjo el video. Si se trata de responsabilizar a alguien, que se castigue quien generó el abuso, y no a quien se encuentra en el medio del camino. El mensajero no tiene la culpa del mensaje. Si yo recibo una carta que me ofende, no voy a culpar al cartero. Puede solicitársele a YouTube que retire de la red el video en cuestión, porque la Justicia lo considera inadecuado y, si técnicamente fuese posible, el proveedor debe removerlo acatando la decisión judicial. Pero si el proveedor fuera automáticamente responsable de los contenidos hospedados, podría darse el caso de una eventual situación donde, si hay una página cuyo contenido disgusta a alguien, y si ese alguien lo hace responsable, al notificársele el reclamo, ese proveedor retiraría de la red aquello que es objeto de reclamo, por temor a ser procesado. Incluso si el contenido de la página no fuera irregular. Así se estaría generando un ambiente de probable autocensura. Entonces se debe responsabilizar al verdadero autor, evitando así alimentar al fantasma de la autocensura.

¿Cuál es el rol de la Icann [Internet Corporation for Assigned Names and Numbers]? ¿Es un organismo ligado al gobierno estadounidense?
La Icann es una institución sin fines de lucro, radicada en California, que cuenta con un consejo integrado por 16 personas de todas partes del mundo, pero no tiene injerencia en el tráfico en internet. La constitución del consejo de la Icann es multisectorial, del mismo modo que la del CGI. Tres brasileños ya han formado parte de su Consejo: Ivan Moura Campos, Vanda Scartezini y yo, que estuve ahí durante cinco años, electo por la ccNSO [Country Code Names Supporting Organization], una organización relacionada con los códigos de dominio de los países. También tiene sus puntos débiles. La falla radica, por ejemplo, en que no posee validez legal internacional porque se encuentra bajo la ley de California. Si algún juez de allí resuelve algo extraño basándose en la ley local, eso podría incidir en internet. El problema de la Icann es que se ocupa de algo bastante limitado, aunque relevante, que es la raíz de la lista telefónica encargada de traducir un nombre de dominio en un número IP. Por ejemplo, todo lo que termina en .br, debe ser convertido en un número. Pero alguien necesita encabezar el listado e indicar cómo se llega al .br para que, luego, el responsable del .br, en este caso el NIC.br, finalice la traducción de, por ejemplo, usp.br, o fapesp.br. Así, la Icann es quien controla la raíz de ese “árbol” de traducción de nombres por números. Además, se ocupa de otra tarea crítica, que es la distribución de los números IP [Internet Protocol] para los organismos regionales RIRs [Regional Internet Registries], que los distribuyen entre las instituciones y usuarios finales. Aquí en Brasil, a partir de 1994, nosotros recibimos del Lacnic y distribuimos los números para el país, en forma autónoma.

¿Y qué hay de cierto en ese asunto de que todo el tráfico de internet pasa por Estados Unidos?
Bueno, eso depende mayormente de la geografía y del proyecto global de ingeniería en las telecomunicaciones. No de la Icann, que, como ya dije, trabaja con nombres y números. El tráfico tiene que ver con el emplazamiento de las fibras ópticas submarinas y de las grandes centrales de conmutación de datos. Las fibras brasileñas, por ejemplo, están conectadas en su gran mayoría con Estados Unidos, y de allí salen otras hacia Europa, Asia y África. Es el resultado del modelo de la ingeniería de telecomunicaciones, no de internet, que tan sólo viaja por el interior de esos cables. Por eso es que EE.UU. termina siendo topológicamente un centro de tráfico muy importante y, si lo utilizaran para espiar el tráfico, cuentan con facilidades especiales porque concentran el paso de buena parte del mismo.

¿La gente se confunde bastante con ello?
En efecto, pero la confusión también puede ser intencional, porque hay intereses involucrados. Existen puntos privilegiados en la red, donde un monitoreo captaría casi todo lo que circula. Sería como instalar cámaras y sensores en la estación del metro de Praça da Sé, en la Catedral: todo el mundo hace enlace ahí. Si monitoreamos por completo esa estación, registraremos gran parte del tráfico total que utiliza el metro. Claro que el monitoreo ilegal de las telecomunicaciones e internet constituye una actividad deplorable y todo el mundo debería condenarla, pero eso no es culpa de internet en sí, que es la que paga el pato. ¿De qué sería culpable directamente internet? El vaciamiento del correo electrónico que estaba almacenado en algún sitio, eso es un caso típico relacionado directamente con internet. Pero los casos que denunció Snowden [Edward Snowden, ex analista de la Agencia de Seguridad de Estados Unidos, quien reveló casos de espionaje practicados por el gobierno estadounidense] son filtraciones de los cables submarinos y, por lo tanto, de las telecomunicaciones, o bien, son pinchaduras en la telefonía celular, que también son telecomunicaciones. Internet entró cándidamente en ese juego y está pagando por un problema que no es suyo.

¿Y el caso de Julian Assange, de Wikileaks [el sitio web que reveló documentos secretos de Estados Unidos]? 
También se trata de filtraciones, fundamentalmente de telegramas y de cables submarinos, o sea, telecomunicaciones. Se recogió la información en algún sitio y se la difundió por la red. Si el robo fuera de correo electrónico, por ejemplo, sería un problema de internet. En China, hace algún tiempo, el gobierno quería descubrir quién era el dueño de algunos blogs y ciertas empresas, incluso algunas estadounidenses, colaboraron, y así el gobierno pudo identificar a algunos activistas. Eso es, de hecho, algo que puede achacársele a internet y, por cierto, no es algo bueno. De tal modo que lo que digo no es que internet no tiene la culpa, de hecho la tiene, pero en la proporción que le corresponde.

Quisiera que nos hablara también del Comité Administrativo de Internet. ¿Fue un ejemplo para otros países?
Claro. Brasil acertó al crear un organismo ágil y multisectorial como el CGI. Seguimos sumando elogios y citas en varios lugares. El presidente de la Icann, cuando visita un país, elogia siempre al modelo brasileño y sugiere que lo imiten. El CGI se instauró en 1995, sufrió algunas reformulaciones y actualmente posee la configuración que se creó por decreto en 2003.

¿Cuáles reformulaciones?
El CGI tuvo pequeñas alteraciones en su composición, tanto en el número de consejeros como en la representación. En su configuración actual, la de 2003, son veintiún miembros, nueve pertenecientes al gobierno y once de la sociedad civil, elegidos por los respectivos segmentos. Los nueve del gobierno no poseen plazo de mandato, porque ocupan el cargo hasta que, eventualmente, el ministro correspondiente nombre a otro representante. A veces, el propio ministro es quien ocupa el cargo en el CGI. Los once elegidos directamente por sus comunidades poseen un mandato por tres años. Hay tres puestos para la academia, cuatro para el tercer sector y cuatro para el sector empresarial, estos últimos distribuidos de la siguiente forma: uno para los usuarios empresariales, uno para proveedores de acceso y servicios, uno para proveedores de infraestructura y uno para el segmento empresarial de software y hardware. Es importante señalar que el gobierno no cuenta con mayoría en el CGI. El coordinador del CGI, por razones históricas, desde su creación, es siempre el representante designado por el Ministerio de Ciencia, Tecnología e Innovación. En teoría, tendríamos una situación en la que doce se imponen a los nueve en una votación; empero, en términos de internet y de consenso, eso no sería nada bueno. Nunca se dio el caso de una votación donde se imponga una estrecha mayoría: la votación es, en lo posible, sustituida por un común acuerdo. Raramente se recurrió a la votación, y cuando la hubo, el resultado fue 20 a 1, ó 19 a 2, por ejemplo. Otro aspecto relevante es que el CGI no tiene poder de imposición o de regulación. Genera buenas normativas, toma decisiones, genera estadísticas, ofrece cursos en áreas específicas y realiza actividades a favor de internet en el país.

El TCP/IP mantiene su fortaleza incluso con todos los cambios. ¿Usted lo sigue viendo de esa manera?
Sí. Hace ya bastante tiempo que el TCP/IP, Ethernet y otros protocolos y estándares se transformaron en la única opción práctica, sin discusión. Antes de eso, en los años 1980 existían múltiples opciones y la elección del modelo que se usaría en cada caso implicaba amplias discusiones. Eso sin mencionar que las distintas opciones estaban relacionadas con los fabricantes. Para las redes, por ejemplo, los usuarios de IBM empleaban SNA y Token Ring, los usuarios de Digital, Decnet, y así sucesivamente. Todo eso se consolidó luego en torno a un protocolo dominante, que sigue siendo TCP/IP. Esa discusión de los años 1980 hoy en día ya no ocurre, y ya nadie habla de redes de largo alcance sin referirse automáticamente al TCP/IP, y no hay red local que no utilice Ethernet. Claro que la gente que investiga protocolos no va a dejar que permanezca todo congelado por otros 30 años. El TCP/IP mostró una flexibilidad asombrosa, pasando de los kilobytes a los gigabytes y terabytes, reveló que aún está en crecimiento y posee vitalidad, pero no puede garantizarse que continuará así para siempre. Los protocolos se agotan y, eventualmente, son reemplazados por otros, o son modificados. Hoy hay una fuerte presión del área de investigación en redes para que se desarrollen y se evalúen alternativas, lo cual siempre es algo muy saludable. Si la alternativa fuera buena acaba por imponerse a lo existente. Si no, no cambia nada. Hoy en día no contamos con ninguna alternativa concreta y comercialmente factible al TCP/IP, pero podría ser que de aquí a cinco años la cosa sea diferente. La gente comienza a inquietarse y quiere cambiarlo todo.

Usted comandaba el CPD cuando la FAPESP realizó la primera conexión de internet en Brasil. ¿Cómo fue que ingresó en la Fundación?
Ingresé en la Poli en 1971 para estudiar ingeniería eléctrica y antes de fin de año me convertí en pasante en el Centro de Computación Electrónica [CCE]. En la Poli, estudié electrónica y me especialicé en telecomunicaciones, pero siempre trabajé en el área digital. En 1976, cuando me gradué y el director del CCE era el profesor Geraldo Lino de Campos, de la Politécnica, la FAPESP había instalado una computadora experimental en una casita que daba a la calle Pirajussara, cercana al bar Rei das Batidas, en la entrada principal de la USP. Se trataba de una Burroughs 1726, una máquina excelente, con un sistema operativo muy interesante. Ahí, Geraldo de Campos desarrolló el sistema Sirius, para controlar ayudas e investigaciones de la FAPESP. Yo también pertenecía al CCE y él me convocó para participar en el desarrollo del Sirius. Iba ahí por la noche. Comencé a ir tres veces por semana a Pirajussara, conectaba la Burroughs e intentaba escribir alguna parte de los programas agregados al Sirius. En esa época conocí al profesor Oscar Sala, físico y miembro del Consejo Superior de la FAPESP. Él era el que realizaba el mayor esfuerzo por instaurar la informatización en la Fundación y había conseguido la B1726. En ese entonces, la FAPESP funcionaba en un edificio en la avenida Paulista y todavía llevaba todo el control de las becas y ayudas en ficheros, en forma manual.

¿Cómo llegaban las informaciones al local de la calle Pirajussara?
Llegaban en papel o en cintas grabadas. No era online, aún estábamos probando el sistema y recibíamos los conjuntos de datos de la Paulista en papel. La FAPESP había concluido la construcción de su actual edificio en la LAPA e iba a instalar allí un datacenter. Todavía recuerdo el día en que mudamos los equipamientos de la calle Pirajussara a la nueva sede. Llevamos la B1726 en un camión semiabierto. Yo iba al lado e imploraba que no lloviera… Si lloviera, pondríamos en riesgo la B1726. Por suerte el día fue soleado y todo acabó bien: arribamos intactos a la calle Pío XI. Con la computadora instalada y funcionando en la nueva sede de la Fundación, todo dejaba de ser experimental y la FAPESP necesitaba un equipo definitivo y estable. Como yo estaba ligado al CCE, donde trabajaba normalmente, cerré mi participación allí con la iniciativa de informatización de la Fundación. Un ingeniero que había salido del CCE, Vitor Mammana de Barros, se encargó de la dirección del datacenter. Asumió un cargo en la FAPESP como superintendente de informática, y yo aún conservaba algún contacto para ajustar los programas con los que ya contábamos en Pirajussara. En 1985, cuando en el CCE se realizaron algunas reformas importantes que generaron total incertidumbre, el profesor Alberto Carvalho e Silva, que era el presidente del CTA [Consejo Técnico Administrativo] de la FAPESP, me convocó para conversar y me dijo que Mammana retornaría al CCE, que se estaba reestructurando. Me preguntó si quería hacerme cargo del datacenter. Yo conocía muy bien la máquina y el Sirius, y eso me gustó mucho. Por otro lado, ya había concluido la maestría en la Poli en 1982, y la idea de pasar a la FAPESP me agradaba, porque me permitiría continuar con el doctorado además de trabajar en algo en lo cual ya había participado y que también me gustaba. Entonces, resolví aceptar el puesto en la Fundación, para reunirme y hacerme cargo del pequeño equipo de tres o cuatro analistas, a los que les incumbía la informatización de los procesos administrativos internos y de las concesiones de becas de ayuda para investigadores.

En ese entonces la comunidad académica comenzaba a utilizar el correo electrónico.
Así es. Los alumnos de física, por ejemplo, que hacían maestría y doctorado fuera del país, deseaban mantener contacto con los investigadores en el exterior. Y afuera ya estaba difundido el uso del correo electrónico, mientras que aquí aún no existía. Entonces comenzamos a plantearnos cómo traerlo acá. La necesidad era tanto de la USP como de la Unicamp y la Unesp. Por eso, el profesor Sala resolvió que, si había tantos que lo pedían, lo mejor era que la FAPESP asumiera la función de instaurar el servicio y que nosotros intentáramos brindar una solución. Convoqué a Alberto Gomide, un profesional brillante en software que ya había trabajado en el CCE y ahora estaba en la Unesp. Estaba él  y algunos más, entre los que recuerdo al matemático Joseph Moussa, al ingeniero Vilson Santo, y otros. Sala mantenía estrechos contactos con el Fermilab, un laboratorio de física de alta energía en Batavia, cerca de Chicago, en Estados Unidos, y acordó con ellos nuestra conexión, porque al fin y al cabo necesitábamos conectarnos con algún sitio. En 1987, durante un encuentro que se llevó a cabo en la Poli sobre redes académicas, descubrimos que también existían otras iniciativas en el país que intentaban conectarse con redes académicas internacionales. En esa reunión estaban presentes Michael Stanton, de la PUC-Río, Tadao Takahashi, del CNPq, quien comandaría la futura RNP, y Paulo Aguiar, de la UFRJ. Nosotros ya contábamos con alguna experiencia en redes, porque habíamos montado la primera fase de la Red USP, que era una red de terminales de computadoras Burroughs 6700 de la universidad. En ese encuentro de 1987, notamos que, tanto el LNCC como la FAPESP estaban tratando de establecer una conexión internacional y que ambos habían elegido realizar la conexión a una red muy sencilla, que les gustaba mucho a los investigadores de la época: la red Bitnet. También estaba la propuesta de creación de una red nacional, que luego sería la RNP, pero aún no se sabía cuáles serían los estándares.

¿Eran tiempos pre PC?
Las PC estaban comenzando a difundirse, pero no poseíamos una conexión en red amplia, solamente había redes locales. Teníamos algunas en la FAPESP. Pero, volviendo a la Bitnet, el LNCC se conectó a ella en septiembre de 1988, un mes antes que hiciera lo propio la Fundación. El LNCC estaba conectado con la Universidad de Maryland, en Estados Unidos, y la nuestra fue con el Fermilab, aunque siempre colaborábamos mutuamente. Cuando fuimos a conectarnos, solicitamos una conexión para cinco máquinas: USP, IPT, Unicamp, FAPESP y Unesp. Entonces la gente de Bitnet, en Estados Unidos, nos informó que una conexión con cinco nuevos nodos a esa red, y todos de Brasil, se asemejaba más a una conexión de una nueva subred [lea en Pesquisa FAPESP, edición nº 180]. Entonces era mejor, en lugar de solicitar una conexión de cinco máquinas a la Bitnet, generar una subred regional, como era el caso de otras que ya estaban conectadas a la red. Como nombre para esa subred, Gomide sugirió São Paulo Academic Network, Span, pero esa denominación ya existía, le pertenecía a la NASA, la Space Physics Analysis Network, y nosotros no lo sabíamos. Hubo que modificarlo, intercambiamos el orden de las letras y quedó Ansp, que es Span invertido: an Academic Network at São Paulo.

¿Fue la primera red latinoamericana?
Exacto. De la época de la Bitnet no recuerdo a ninguna otra. Tal es así que toda la topología Bitnet en Brasil se definió en la FAPESP. La distribución de Bitnet constaba tan sólo de una tabla que describía cuáles computadoras se hallaban conectadas en qué máquinas. Esa tabla se actualizaba una vez por mes, para la inclusión de nuevas máquinas participantes o modificar conexiones. Un ruteamiento poco dinámico. Para establecer un estándar incipiente de nombres sugerimos el uso de br al comienzo de todos ellos. Así quedamos como brfapesp, brusp, bruc (para la Unicamp), bript, etc. Eran nombres de un solo nivel, sin “apellido”, sin punto esto ni lo otro. La gente de Río de Janeiro y de otros sitios también comenzó a utilizar la preposición br al frente: brufmg, brufrgs, brufpe, y de esa manera empezamos a difundir la red. Un e-mail demoraba horas, a veces un día, dependiendo del tamaño del texto del envío. Pero ya era algo maravilloso, porque al lado del correo normal, no podía comparársele, era mucho mejor.

¿Cómo fue que se registró el .br para Brasil?
La red académica crecía por medio de una multiplicidad de protocolos y máquinas. Aparte de Bitnet, estaba la HEPNet [High Energy Physics Network], máquinas conectadas a la UUCP, a la Fidonet, a la Renpac (x25) de Embratel, etc. Y resultaba difícil brindarles un nombre adecuado a las máquinas. Nos enfocamos en el “apellido” .br y solicitamos su registro, que nos fue delegado el 18 de abril de 1989 por Jonathan Postel, administrador de la Iana [Internet Assigned Numbers Authority] en la Universidad del Sur de California, donde se realizaba la gestión de la raíz de internet. No hubo ninguna interacción formal más, excepto con el personal involucrado en redes académicas. Ni intervención de ninguna índole del gobierno estadounidense, ni del gobierno brasileño, o de Itamaraty. Fue algo realizado entre la comunidad de los que operaban las redes académicas, tal como era costumbre en internet. Postel consideró que poseíamos la madurez suficiente como para erigirnos en foco del .br y resolvió atender a la comunidad local, delegando el .br para que lo administrara el equipo que operaba la red en la FAPESP.

¿Y cuando apareció internet en Brasil?
Bueno, obtuvimos el .br el 18 de abril de 1989, pero cerca del final de aquel año se hizo evidente que la Bitnet comenzaba a marchitarse, y que internet, que poseía muchos más recursos, prevalecería e iría absorbiendo a Bitnet y, probablemente, al resto de las alternativas también. Bitnet era buena para el correo electrónico, listas de debates, pero presentaba limitaciones en la interacción y en el acceso remoto a computadoras, más allá de que estaba creciendo mucho menos. En ese entonces le solicitamos a la gente del Fermi que, cuando ellos pasaran a internet, nos llevasen con ellos.

Ustedes se percataron del movimiento y conocían internet.
En 1989 estaba surgiendo una columna vertebral para el Departamento de Energía estadounidense, donde el Fermi se hallaba ligado a esa espina dorsal, a semejanza de la NSFNET [de la National Science Foundation], también utilizaría TCP/IP y formaría parte de internet. El Fermilab migraría ni bien fuera posible hacia el recién creado backbone [espina dorsal], denominado ESNet [Energy Sciences Network], lo cual ocurrió en 1990. Como nosotros estábamos conectados con ellos, trabajamos para implementar TCP/IP también en la máquina de la FAPESP y, en enero de 1991, logramos intercambiar los primeros paquetes TCP/IP, utilizando un paquete de software que implementaba el TCP/IP en máquinas DEC. La fecha exacta no la recuerdo, pero fue en enero, todos estaban de vacaciones en la FAPESP. Joseph Moussa [empleado del CPD de la FAPESP] se encontraba allá y recibimos una cinta con el programa que realizaba la implementación del protocolo TCP/IP. Moussa instaló el programa, funcionó, y así fue que comenzaron a ingresar los primeros paquetes de internet en la FAPESP.

¿Cómo fueron esos comienzos?
La línea que sostenía a la red académica brasileña vía RNP era la de la FAPESP, que inicialmente era una pobre línea de 64 kilobits [Kbps], que después pasó a ser de 128 Kbps, 256 Kbps y, finalmente llegó a 2 Mbps. Yo era el coordinador de operaciones de la RNP, que se centraban en la FAPESP y, por una cuestión de organización, le pedíamos directamente a Embratel las líneas que la RNP utilizaría en su backbone. La RNP pagaría las líneas nacionales y los equipamientos instalados en los puntos de presencia en los estados, y la Fundación, la conexión internacional. El primer backbone completo de la RNP fue proyectado en el marco de una reunión en la FAPESP con la participación de Michael Stanton, Alexandre Grojsgold, del LNCC, y de Alberto Gomide, de la FAPESP. Lo primero en debatirse fue la estructura de nombres que se utilizarían antepuestos al .br, surgiendo así usp.br, unicamp.br, ufmg.br, etc. Creamos el gov.br para el gobierno y, anteponiendo las siglas de los estados, quedó, por ejemplo, sp.gov.br. Para la futura área comercial se designó el com.br, y para el segmento de organizaciones sin fines de lucro, el org.br, así como el net.br para los dispositivos relacionados con la infraestructura de la red.

¿Era un espejo de lo que ya existía en Estados Unidos?
Claro. Y parece que fue una buena idea. Porque .com, .net y .org, ya existían en Estados Unidos y nosotros creímos que era bueno mantener esas siglas con tres letras, antes del .br. Los ingleses emplean dos: ac.uk, por ejemplo, para academic, o co.uk, para commercial. El com.br aprovechó la expansión del .com internacional en términos de difusión. Al final de cuentas, se trata de una empresa brasileña, en lugar de usar .com, que utilice .com.br. En esa época aún no existía casi nada comercial, pero por supuesto, era bueno preverlo. Si bien en aquel entonces casi todo era académico, la difusión fue muy rápida y todo cambió en pocos años. En diciembre de 1994, finalmente, Embratel se convenció de brindar acceso a internet a personas físicas en Brasil. El TCP/IP todavía no era un protocolo “de derecho”, sino algo un tanto underground. Pero el mundo ya estaba cambiando y adoptaba rápidamente el TCP/IP, incluso porque la familia de protocolos propuesta por la ITU era mucho más cara, bastante complicada y enfocada en la facturación, algo muy distinto al mundo de internet. Embratel, persuadida por la RNP, instaló en Río de Janeiro el primer punto de acceso a internet para usuarios brasileños. Sólo que el abordaje lo instauró en forma muy centralizada: creó un 0800 para que la gente llame y todo el mundo tendría una cuenta en @embratel.net.br. Es decir, Embratel sería el único portal de acceso a internet para los brasileños. Se produjo una reacción inmediata, porque los integrantes de la red académica consideraban un error que Embratel fuera la “internet brasileña” y que eso sería algo muy limitante para su expansión. Entonces, la RNP se contactó con el ministro de Telecomunicaciones de la época, Sergio Motta. Tadao Takahashi, Ivan Moura Campos y Carlos Afonso, del Ibase, persuadieron al ministro de que el camino por seguirse era otro: instaurar un esquema jerárquico que enriqueciera a la internet brasileña. Al comienzo de 1995, el ministro Sergio Motta firmó una resolución prohibiéndole a Embratel la provisión de internet en forma directa. Embratel brindaría acceso a las telefónicas regionales [empresas de telefonía], y éstas a los proveedores, que llevarían internet al usuario final. Surgieron proveedores del área de contenido, Folha, Abril, Estadão, JB, etc. De ese modo apareció rápidamente material en portugués. Decían que los brasileños no iban a querer saber nada con internet, pues su contenido era todo en inglés, pero eso fue fácilmente desbaratado. El Comité Gestor comprendió que necesitaba consolidar la estructura existente y delegó en el equipo de la FAPESP el registro de nombres y números. Después, el CGI también resolvió que comenzaríamos a cobrar el registro de nombres de dominio, tal como, en efecto, acababa de ocurrir en Estados Unidos, para que la actividad pudiera ser autosostenible. Hasta entonces, la Fundación mantenía a tres o cuatro empleados, además de hacerse cargo del pago de las líneas internacionales. Se resolvió cobrar el equivalente a lo que se cobraba en Estados Unidos: 50 reales la inscripción y 50 más por año. Para otorgarle un marco legal a esos recursos, se creó un proceso interno en la FAPESP, el proyecto de ayuda a la investigación Comité Administrativo de Internet en Brasil. El CGI obtuvo así recursos para aplicarlos en actividades en pro de internet en el país. Me acuerdo de la reunión del CGI en la sede de la FAPESP, en 2000, cuando el profesor Landi [Francisco Landi, expresidente del directorio de la FAPESP] comentó que el proyecto del Comité Administrativo ya llevaba cinco años y ese era el tiempo máximo de duración de los proyectos en la FAPESP, y que ya no podría albergar el registro de internet brasileño. El CGI estuvo de acuerdo en que era hora de procurar una solución propia y cambiar. El registro brasileño se trasladó en 2001 hacia un edificio en la autopista Marginal Pinheiros e instaló allí un centro de procesamiento de datos.

¿Y se creó el NIC?
El CPD del CGI ya estaba instaurado cuando, en 2002, Ivan Moura Campos, quien se desempeñaba como coordinador del CGI, determinó que necesitábamos una personería jurídica para reemplazar a la FAPESP tanto en la eventual responsabilidad por las actividades del registro brasileño como para el cobro y depósito de las contribuciones. Hasta entonces, todas las facturas se emitían con el CNPJ de la FAPESP, que también terminaba envuelta en juicios referidos a conflictos en el registro de nombres de dominio bajo la denominación .br. Eso representaba una incómoda carga adicional para la Fundación. En 2002, se decidió que el CGI crearía una ONG sin fines de lucro, el Nic.br.

¿Usted nació en Italia y se naturalizó brasileño? ¿Cómo fue?
Nací en la ciudad de Trieste y mi familia vino a Brasil en 1954, cuando yo contaba con un año de edad, y soy naturalizado brasileño, si bien no poseía ninguna nacionalidad previa. No era italiano y me convertí en brasileño.

¿Cómo ocurrió eso?
Fui un apátrida hasta naturalizarme en 1976. Mi padre era griego, mi madre es búlgara y mi hermano nació en Brasil. Yo nací en 1953, y Trieste aún era una zona ocupada por los aliados luego de la Segunda Guerra Mundial, porque recién al finalizar aquel año, los estadounidenses abandonaron algunas ciudades claves. Mis padres se naturalizaron brasileños bastante antes que yo. Cuando estaba por finalizar mis estudios en la Poli, aceleré el proceso de naturalización, porque sacar el pasaporte como apátrida es un infierno.

¿Vinieron a Sao Paulo?
Llegamos en 1954 y siempre vivimos aquí. Mis raíces religiosas familiares son grecoortodoxas y estudié en un colegio de monjas católicas en Tatuapé, luego en un colegio de curas españoles en el secundario y, finalmente, ingresé en la Poli.

¿Qué puede decirnos de su vida académica como profesor?
Realicé maestría y doctorado [Poli-USP] e incluso ingresé como profesor en la Poli e impartí clases de redes de computadoras durante unos años allí. Cuando todavía estaba en la FAPESP, se abrió un concurso. Me seleccionaron, fui docente; pero, como no me quedaba tiempo para investigar en la Poli, creí que sería mejor abandonar. Académicamente estoy en la PUC-SP desde que se creó la asignatura de ciencias de la computación. Di clases en distintas comisiones de la carrera, sobre arquitectura de computadoras y de redes. También doy clases en el marco del programa de posgrado en Tecnología de Inteligencia y Diseño Digital, una carrera interdisciplinaria bastante interesante de la que acaba de egresar su primer doctor.

Republicar