Смекни!
smekni.com

По истории информатики на тему (стр. 1 из 2)

Санкт Петербургский государственный университет информационных технологий механики и оптики

Реферат

По истории информатики на тему

“История развития технологий

WEB 2.0 и Wikipedia”

Аспирант:

Кукушкин С. Г.

Кафедра:

ПЭ и М

Специальность:

08.00.05

Санкт-Петербург

2008 г.


Оглавление

Введение. 3

1. Появление термина Веб 2.0. 3

2. Основы Веб 2.0. 4

3. Ключевые принципы Веб 2.0. 6

1. Веб как платформа. 6

2. Чем больше людей использует сервис, тем автоматически он становится лучше. 6

3. Охват длинного хвоста засчет самообслуживания пользователей. 6

4. Контроль над уникальными, сложными для воссоздания источниками данных, которые могут быть обогащены за счет пользователей. 7

5. Отношение к пользователям как к соразработчикам. 7

6. Упрощенные модели разработки пользовательских интрефейсов и упрощенные бизнес-модели. 8

7. Софт должен работать поверх устройств. 8

8. Привлечение коллективного разума. 8

4. История Википедии. 9

5. Ключевые факты и современное состоятие Википедии. 10

Заключение. 10

Список литературы.. 11

Введение

Появление термина Веб 2.0 принято связывать со статьёй «Tim O’Reilly — What Is Web 2.0» от 30 сентября 2005 года, впервые опубликованной на русском языке в журнале «Компьютерра» (№№ 37 (609) и 38 (610) от 14 и 19 октября 2005 года соответственно)

В этой статье Тим О’Рейли привязал появление большого числа сайтов, объединённых некоторыми общими принципами, с общей тенденцией развития интернет-сообщества, и назвал это явление Веб 2.0., в противовес «старому» Веб 1.0.

В ходе работы над рефератом мы попытемся проследить историю развития технологий веб 2.0: осветим появление термина веб 2.0, выделим и подробно исследуем ключевые идеи и принципы, присущие приложениям веб 2.0 на конкретных примерах, а также подробно остановимся на Wikipedia одном из самых значимых инновационных проектов в исследуемой области.

1. Появление термина Веб 2.0

Значение термина веб 2.0 до сих пор является предметом многочисленных споров.

Как пишет сам О’Рейли в своей статье Что такое WEB 2.0 концепция Веба 2.0 родилась в 2005 году на совместном мозговом штурме издательства O’Reilly Media и компании MediaLive International. На их первой встрече, они определяли Веб 2.0, отталкиваясь от конкретных примеров:

Web 1.0 Web 2.0

DoubleClick --> Google AdSense

Ofoto --> Flickr

Akamai --> BitTorrent

mp3.com --> Napster

Britannica Online --> Wikipedia

personal websites --> blogging

evite --> upcoming.org and EVDB

domain name speculation --> search engine optimization

page views --> cost per click

screen scraping --> web services

publishing --> participation

content management systems --> wikis

directories (taxonomy) --> tagging ("folksonomy")

stickiness --> syndication

Список был достаточно большим. Но почему одно приложение специалисты O’Reilly Media и компании MediaLive International отнесли к Вебу 1.0, а второе - к категории Веб 2.0?

2. Основы Веб 2.0

Проанализировав наиболее успешные проекты Веба 1.0 и самые интересные новые приложения, Тим О‘Рейли совместно с коллегами выделили основные принципы Веба 2.0:

Рисунок 1. Основы Web 2.0.

На рисунке 1 показана карта Веб 2.0, созданная во время мозгового штурма на конференции FOO Camp в 2005 году.“Ее нельзя назвать завершенной, но она иллюстрирует многие ключевые идеи Веб 2.0” – так отзывается о ней сам Тим О‘Рейли.

Тим О‘Рейли утверждает, что “как многие важные концепции, Веб 2.0 не имеет четких границ. Это, скорее, центр притяжения. Вы можете представить себе Веб 2.0 как множество правил и практических решений. Они объединены в некое подобие солнечной системы, состоящей из узлов, каждый из которых построен с учетом некоторых или всех описанных правил и находится на определенной дистанции от центра”.

Проанализировав карту Веб 2.0, а также правила и практические рекоммендации, выработанные на конференции FOO Camp специалистами O’Reilly Media, включая Тима О’Рейли и компании MediaLive International мы выделили ключевые принципы WEB 2.0:



Далее мы подробнее остановимся на каждом из 7 принципов, выделенных нами на рис. 2

3. Ключевые принципы Веб 2.0

  1. Веб как платформа.

Google с момента своего создания был веб-приложением. Это сервис, за доступ к которому прямо или косвенно платили пользователи. Ни один из привычных недостатков старой софтверной индустрии характерен ему не был. Вместо запланированных релизов - постоянное улучшение продукта. Вместо лицензирования или продаж - просто использование. Нет нужды заботиться о портировании ПО на другие платформы - все, что нужно для запуска Google, - это расширяемый массив из обыкновенных ПК с запущенной открытой ОС плюс собственные приложения и утилиты, которых никто за пределами компании не увидит. Фактически стоимость ПО была пропорциональна масштабу и динамичности данных, с которыми оно помогало управляться.

Сервис Google это не сервер, хотя доставка сервиса обеспечивается массивом интернет-серверов, - и не браузер, хотя пользователь получает доступ к сервису именно через него. И это не прославленный поисковик, хранящий контент, позволяющий пользователю осуществлять поиск. Как и телефонный звонок, который случается не на концах телефонной линии, а в сети между ними, сервис Google осуществляется в пространстве между браузером, поисковиком и целевым сервером, на котором содержится искомое. Google - это посредник между пользователем и его/ее онлайновым опытом.

Как и DoubleClick, Akamai был оптимизирован для работы с головой, а не хвостом, ориентирован на центр, а не на окраины. Несмотря на то что сервис Akamai работал на благо тех, кто находился в конце "длинного хвоста", облегчая им доступ к популярным сайтам, деньги свои компания получала именно от сайтов.

2. Чем больше людей использует сервис, тем автоматически он становится лучше.

BitTorrent сделал огромный шаг к децентрализации Интернета. Каждый клиент является и сервером, файлы разбиваются на фрагменты, которые могут быть загружены из разных источников, незаметно принуждая пользователей предоставлять друг другу каналы и данные. Чем популярнее файл, тем быстрее он может быть доставлен, так как больше пользователей обеспечивает суммарную пропускную способность и больше фрагментов целого файла доступно в Сети.

Таким образом BitTorrent демонстрирует нам ключевой второй принцип Веб 2.0: чем больше людей использует сервис, тем автоматически он становится лучше. Если Akamai вынужден добавлять серверы для улучшения качества услуг, то каждый пользователь BitTorrent приходит на вечеринку со своими ресурсами. Это имплицитная "партнерская архитектура", встроенная этика кооперации, согласно которой сервис действует в первую очередь как разумный посредник, соединяющий края друг с другом и использующий для этого ресурсы самих пользователей.

3. Охват длинного хвоста засчет самообслуживания пользователей.

Overture и Google добились успеха, потому что поняли концепцию "длинного хвоста" (терминология Криса Андерсона) - "коллективной мощи маленьких сайтов, которые поставляют значимую часть контента". Предложение DoubleClick подразумевает подписание официального контракта, ограничивая рынок до нескольких тысяч крупных сайтов. Overture и Google отыскали способ размещения рекламного модуля практически на любой странице. Больше того, они предпочли рекламным форматам, ориентированным на издателей и агентства (баннеры, поп-апы), менее навязчивые, привязанные к контексту и дружелюбные к пользователю текстовые рекламные блоки.

Урок Веба 2.0: сделайте упор на пользовательские сервисы и алгоритмическую обработку данных, чтобы дотянуться до самых краешков веба, обращайте внимание не только на голову, но и на хвост.

Неудивительно, что другие истории успеха Веба 2.0 демонстрируют нам примерно то же поведение. eBay разрешил единичные транзакции стоимостью в несколько долларов между физическими лицами, исполняя роль автоматического посредника.

4. Контроль над уникальными, сложными для воссоздания источниками данных, которые могут быть обогащены за счет пользователей.

Очевидно - и тому есть множество примеров, - что в эпоху интернета тот, кто владеет БД, владеет и рынком, а значит, получает львиную долю прибыли. И если сохранить рыночное преимущество, контролируя API, все труднее, контроль над важными источниками данных обеспечить значительно проще. Особенно если эти источники дорого воссоздать (или они были обогащены с помощью пользователей сервиса). Взгляните на копирайты на картах от MapQuest, maps.yahoo.com, maps.yandex.ru, maps.msn.com или maps.google.com. Везде будет пометка "Maps copyright NavTeq, TeleAtlas" или "Images copyright Digital Globe" (поставщик спутниковых изображений). Все эти компании изрядно вложились в свои БД. (NavTeq потратила на создание БД с названиями улиц и маршрутами 750 млн. долларов. Digital Globe - 500 млн. долларов, чтобы запустить собственный спутник.

Данные, несомненно, и есть единственный важный компонент подобных приложений, тогда как сам софт по большей части поставляется в открытом виде, а даже если и нет - все равно вполне доступен.

Но возьмем для начала в качестве примера Amazon. Изначально его БД была построена на регистре кодов ISBN от R.R.Bowker. Базы конкурентов, соответственно, не имели существенных отличий. Но в отличие от MapQuest, Amazon без устали дополнял данные, добавляя информацию, предоставленную издателем, - обложки, содержание, оглавление и даже фрагменты из книг. Что важнее, Amazon привлек пользователей для написания аннотаций, и теперь именно Amazon - а вовсе не Bowker - является главным источником библиографической информации для филологов и библиотекарей, не говоря уж о простых пользователях. Также в Amazon был разработан уникальный идентификатор ASIN, покрытие которого шире, чем у ISBN. В общем, Amazon догнал и перегнал своих поставщиков информации.