понедельник, 30 июня 2008 г.

Интернет–2 -- высокие технологии где–то рядом…

За последние годы, развитие сети Интернет достигло значительных высот. Кривая роста числа пользователей всемирной сети — яркое тому подтверждение. Вместе с тем, говорить о дальнейшем развитии Сети приходится в экстенсивном контексте: Интернет успешно развивается и будет развиваться, вместе с тем эффективность использования его ресурсов постоянно падает. Для научных целей и некоторых задач, даже существующих мегабитных скоростей явно не достаточно… Одной из задач для сети нового поколения, является повышение скорости передачи информации до 10 Гбит/c. И это только начало…


Интернет. Краткий экскурс


Все началось в далеком 1962 году, когда исследования ARPA по вопросам военного применения компьютерных технологий возглавил доктор Ликлайдер (J.C.R. Licklider), который предложил для этих целей использовать взаимодействие имеющихся государственных компьютеров.

Главная идея такого «эксперимента» состояла в том, чтобы построить сеть из функционально равноправных узлов, каждый из которых обладал бы некоторой автономностью и имел бы свои собственные приемо–передающие блоки обработки информации, что сделало бы сеть устойчивой даже при значительных повреждениях (не будем забывать про год…)

Эксперименты по объединению удаленных узлов были поставлены уже в 1965 году, когда были соединены компьютеры TX–2 Массачусетского технологического института (MIT Lincoln Lab) и Q–32 корпорации SDC (System Development Corporation) в Санта–Монике. Интересно, что обмена пакетами между ними в то время не происходило, обмен осуществлялся посимвольно.


В 1967 году, на симпозиуме ACM (Association for Computer Machinery) был озвучен план создания национальной сети с пакетной передачей данных и уже в 1969 году, министерство обороны США утвердило ARPANET (Advanced Research Projects Agency NETwork), как ведущую организацию для исследований в области компьютерных сетей. Первым узлом новой сети стал UCLA — центр испытаний сети, а вскоре к нему присоединились ряд ведущих исследовательских институтов страны (Стэнфордский университет, университет Санта–Барбары, университет Юта и др.)


В начале 1971 года, в сети было уже 15 узлов: UCLA, UCSB, SRI, University of Utah, CWRI, BBN, MIT, SDC, RAND, Harvard Lincoln Lab., Stanford, UIU(C), NASA/A, CMU, объединивших 23 хоста.


В 1972, группа аспирантов, возглавляемая профессором Станфордского университета Винтоном Кирфом (Vinton Cerf) разработала ряд протоколов обмена, превратившихся позднее в TCP/IP. «Знал бы я, что протокол TCP/IP станет международным промышленным стандартом, используемым миллионами людей, — отмечал В. Кирф в 1994 году, — я бы выбрал большее, чем 32 разряда, адресное пространство и внимательнее отнесся бы к высокоскоростным средам с длительной задержкой» (Vinton G. Cerf. The Internet Phenomenon.). Была опубликована спецификация Telnet (RFC 454). В этом году появилась первая коммерческая версия UNIX, написанная на Си. Успех UNIX превзошел все ожидания.

Первые подключения к сети ARPANET «извне» были осуществлены в 1973 году, когда к сети подключились машины из Англии (University College of London) и Норвегии (Rogee Radar Establishment).


В 1982 году DCA и ARPA установили в качестве основы построения сети Internet Protocol (IP) и Trans–mission Control Protocol (TCP) и уже 1 января 1983 года Министерство обороны США объявило TCP/IP своим стандартом.


В 1990 году ARPANET прекратила свое существование и ее функции перешли на NSFNET (National Science Foundation). К сети подключились Австрия, Бельгия, Аргентина, Бразилия, Индия, Греция, Ирландия, Испания, Швейцария, Чили и Южная Корея.

В CERN (Centre European pour la Recherche Nucleare), Тим Бернес–Ли (Tim Berness–Lee) разработал World–Wide Web (WWW) — наверное, самую популярную службу за всю историю сети Интернет. Естественно, что по популярности среди пользователей WWW обошла Telnet и вскоре к сети подключились Алжир, Ливан, Нигер, Армения, Бермудские острова, Буркина–Фасо, Ямайка, Литва, Китай, Колумбия, Марокко, Масау и др.


Не секрет, что современный Интернет имеет существенные технические проблемы, доставшиеся еще от ARPANET:

1) Это недостаточно большое адресное пространство, ограниченное 32–битным адресом. Как следствие — нехватка IP–адресов.

2) Низкая производительность и отсутствие механизма автоматической конфигурации адресов. Не секрет, что алгоритмы фрагментации пакетов протокола IPv4 несовершенны и не отвечают современным требованиям: все дело в том, что на разделение пакетов маршрутизаторами, требуется неадекватно большое количество системных ресурсов. Получается, что процедура фрагментации пакетов, имея неоправданно большое время обработки, потребляет дополнительные ресурсы промежуточных маршрутизаторов.

3) Современный Интернет слабо приспособлен для передачи звука и видео в режиме on–line. Голосовой трафик при передаче искажается достаточно сильно, чтобы говорить о неудовлетворительном качестве передачи, как результат — маленькое пищащее окошко…

4) Невозможность осуществления широковещательной передачи через Интернет — все это сказывается на развитии телерадиовещания в Сети… 5) Пятый пункт на самом деле — только по списку пятый и является достаточно важным, т.к. речь идет о безопасности сетевых протоколов и особенностей взаимодействия клиент–сервер. Наверное не зря, существует даже целая классификация угроз безопасности Web–серверов…


Интернет–2


Помимо вышеперечисленного, одной из основных причин для организации проекта — Интернет–2 является проблема увеличения эффективности использования Интернета (т.н. PSP— Problem Solving Potential), которая остро стоит среди представителей научно–исследовательской среды: биологов, медиков, физиков и др. Не секрет, что для проведения видеоконференций в реальном времени, существующих возможностей современного Интернета явно не достаточно: маленькое окошко со звуком плавно переходящем в цифру ;) и т.д.


Интернет–2, как и Интернет, породило США. Вообще, о необходимости создания проекта такого рода заговорили в октябре 1996 года, когда на встрече в Чикаго собрались представители 34 ведущих университетов, чтобы всерьез обсудить насущное.


Как результат встречи — договоренность, согласно которой, каждый из участников ежегодно инвестирует в проект 500 тыс. долларов. Уже в 1997 году, новым проектом заинтересовался и поддержал его Билл Клинтон, решив «слить» Интернет–2 с уже существующим проектом NGI (Next Generation Internet). Пару слов об NGI.


В отличие от Интернет–2 (закрытый проект), NGI является открытым проектом, в основе которого лежит программа разработки и внедрения новых сетевых технологий с более продвинутой базой данных и высокой пропускной способностью. Проект был поддержан на самом высоком уровне: 10 октября 1996 года президент Клинтон и вице–президент Гор дали понять, что поддерживают инициативу создания NGI, которая будет базироваться на новейших передовых разработках, проводящихся в федеральных ведомствах. Инициатива эта направлена, прежде всего, на поддержку научных исследований и разработок в области сетевых технологий и обеспечения высокоскоростных соединений между важнейшими научно–исследовательскими центрами США. В качестве технической основы NGI была взята высокоскоростная опорная сеть vBNS.


Понятно, что использование скоростных каналов потребовало разработки соответствующих инструментов сервиса: протоколов передачи данных, средств администрирования — и такие разработки активно проводятся. Кроме этого, уже сейчас ведется разработка прикладных программ нового поколения, обслуживающих все возможности высокоскоростных соединений (видеоконференции, теле-медицина, дистанционное управление физическими экспериментами).


Что же такое Интернет–2?


Интернет–2 состоит из узловых точек т.н. GigaPoPs (gigabit–capacity points of presence). Количество таких точек уже перевалило за 30 и постоянно растет. GigaPoPs соединены между собой главной магистралью — Internet2 Backbone Networks. К таким узловым точкам через оптоволокно (общая длина оптического волокна составляет 13 000 миль) подсоединяются университеты, научно–исследовательские центры и др. ведомства, задействованные в программе. Общая магистраль (она же главная) построена на основе волоконно–оптической магистральной сети Abilene, стоимость которой оценивается в 500 миллионов долларов.


Сеть Abilene


Сеть была создана в 1999 году, тогда опорный канал сети Abilene имел пропускную способность 2,5 Гбит/с. и предназначалась для исследований в области передовых сетевых технологий и программ. Название «Abilene» происходит от железнодорожной ветки, проложенной в 1860–х годах у города Abilene в штате Канзас. Сеть объединяет более 230 американских университетов, научных центров и других учреждений и имеет что–то вроде управляющего центра, т.н. The Network Operations Center (NOC), расположенного на территории университета Индиана. Сеть финансируется взносами участников.


Изначально, общая магистраль была разработана по заказу University Corporation для UCAID (Advanced Internet Development). В создании сети участвовали такие гиганты как Cisco Systems, Qwest Communications, Nortel Networks и Indiana University.


Главной особенностью сети Abilene сегодня, является высокая скорость передачи данных. Как было уже сказано в начале, скорость была 2,5 Гбит/с. В 2003 году начался переход на стандарт OC–192c, с номинальной скоростью 10 Гбит/с. Переход был окончен 4 февраля 2004 года и сейчас реальная скорость составляет порядка 6—10 Гбит/с. Маршрутизацию пакетов данных осуществляют специальные высокопроизводительные маршрутизаторы. В настоящее время, сеть совместно поддерживается консорциумом Интернет2, Университетом Индианы, а также компаниями «Qwest Communications», «Nortel Networks» и «Juniper Networks».


Понятное дело, что переход на новые скоростные каналы передачи данных потребовал разработки новых адекватных протоколов маршрутизации. Одним из протоколов, обслуживающих Сеть нового поколения, будет модификация протокола IP: в новом IP устранено ограничение на количества IP–адресов. Модификация протокола IP Version 4 (IPv4) получила название IPv6 (IP version 6). В новом протоколе применена 128–битная адресация вместо 32–битной, и не трудно подсчитать, что количество теоретически подключенных к сети устройств теперь будет исчисляться 38 степенью… Новый протокол хорош еще и тем, что предоставляет возможность широковещательной передачи данных, т.н. multicast. Что дает эта технология? Известно, что для организации одного канала передачи звука при радиопередаче через Интернет, затрачивается какое–то количество ресурсов канала. Умножив это значение на количество пользователей, получается существенный «загруз» сети. При мультикастинге, происходит передача лишь одного потока данных (видео, аудио и т.д.) по общему каналу связи для нескольких клиентов. Этим достигается увеличение пропускной способности сети со всеми вытекающими отсюда последствиями. К плюсам нового протокола можно отнести и его большую защищенность, и безопасность, и новый уровень «качества» передаваемых пакетов, что обеспечивается постоянным соблюдение параметров пропускной способности сети и времени переноски пакетов.


Что касается совместимости «старого» и «нового» Интернета, то тут все просто: из пространства Интернет–2 (IPv6) можно увидеть Интернет (IPv 4), но не наоборот. Хотя, и в этом случае существует одна из возможностей «заглянуть туда»: если использовать один из шлюзов IPv4/IPv6, любезно предоставляемых, к примеру, Hurricane Electric's IPv6 Tunnel Broker, то все возможно... Для этого, достаточно всего ничего: необходимо зарегистрироваться, включить у себя поддержку IPv6–стека и особым образом настроить туннелирование трафика. Что же касается прикладного использования сети нового поколения, то уже сегодня существует ряд проектов, которые успешно работают в новой среде. Остановимся на некоторых из них поподробней.


ResearchChannel. Интереснейший проект, поддерживаемый сразу несколькими университетами, основная задача которого, заключается в продвижении высококачественного видео и радиопередач через Интернет. Возможности: просмотр on–line роликов, передача новостей, создание прямой связи и интерактивных мостов между университетами.


Berkeley Internet Broadcasting System (BIBS). Представляет собой интерактивную телевизионную систему для дистанционного обучения. Изначально создавалась для студентов Беркли. Поддерживает множество одновременно работающих программ, включающих видео/аудио поток и данные. Система позволяет дистанционно проводить лекции, с большим количеством пользователей одновременно.


MICE, Molecular Interactive Calloborative Environment. Представляет собой среду сложной визуализации, ориентированную на проведение молекулярного анализа. Система позволяет в режиме on–line визуализировать исследования различных молекулярных механизмов. В основе проекта — движок на Java3D.


Cave5D — представляет собой электронную лабораторию визуализации. Позволяет дистанционно получать непрерывную визуализацию различных процессов.


The Virtual Cell. Эмулирует среду, в которой студенты занимаются изучением особенностей функционирования клетки. Взаимодействие — в реальном времени.


Tele–immersion — представляет собой инструмент разработки среды виртуального пространства. Широко

используется для организации видео и телеконференций.


The Informedia Digital Video Library — самообучающаяся система, предоставляющая богатые возможности для образовательных, информационных и развлекательных целей. Система способна автоматически распознавать видео, звуки, картинки.


Как видите, перспективы более чем впечатляющие. Закачка музыки и фильмов с фантастическими скоростями, видеоконференции с эффектом живого присутствия, интерактивное взаимодействие участников проектов — все это реально. Не за горами и интерактивный Counter Strike по сети Интернет ;).



Buckster.ru - больше всего денег с Вашего трафика! Инвайты: ICQ 343-268-517

Комментариев нет:

Отправить комментарий