Раздел: Интернет технологии
05.09.07 10:09
Текст: Георгий Мешков
Компания Lockheed Martin, выполняющая значительную часть заказов на поставку авиатехники для американских военных, начала перевод своих внутренних телекоммуникационных сетей на протокол IPv6 (Internet Protocol version 6).
Делается это в рамках постановления Управления по административным вопросам и бюджету при президенте Соединенных Штатов, утвержденного еще в 2005 году. По его условиям, все важнейшие государственные учреждения должны осуществить переход на IPv6 к 2008 году.
По словам представителей Lockheed Martin, своей инициативой компания также хочет продемонстрировать своим клиентам эффективные пути перехода на новый сетевой протокол. Первая фаза проекта стартовала в начале текущего года и затрагивает десять узлов корпоративной сети Lockheed Martin Global Vision Network (GVNet), которая связывает офисы компании в Калифорнии и Великобритании, сообщает PC World.
04.09.07 10:09
Кодовое название этой версии – Dimension (измерение). Четвертая версия программы была полностью переделана, была улучшена функция масштабирования страниц, что особенно важно при работе с небольшими экранами. Фунция масштабирования основана на той, которая используется в версии Opera для Nintendo Wii.
Среди других особенностей программы можно отметить:
Автоматический подбор места на странице, с которого можно начать чтение;
Динамическое изменение размера текста и изображений для удобного чтения без использования скроллинга;
Виртуальная мышь для удобной навигации – курсор будет искать ссылки и содержимое и автоматически наводиться на них;
Скроллинг с использованием клавиш: нажмите 2 для перемещения вверх, 4- влево, 6 – вправо, 8- вниз, 5 – для масштабирования;
Доступ к нескольким поисковым системам прямо со стартовой страницы;
Использование контекстного меню, возникающего при нажатии на клавишу 1, для доступа к самым популярным функциям;
Поддержка CSS;
Сжатие страниц, благодаря чему пользователь платит меньше за трафик.
02.09.07 00:09
Оказаться в Киеве в базе Google раньше, чем за день - это очень просто!
Для начала, давайте поговорим о том, чего НЕ СЛЕДУЕТ делать.
Я думаю, данный адрес выглядит знакомым для вас:
http://vitaweb.pp.ru/official/redirect.php?address=http://www.google.com/addurl.html?
Это форма регистрации сайтов для поисковой машины Google. Они говорят, что Вы можете использовать данную форму для регистрации вашего сайта в индексе остальных веб-страниц. Для того чтобы оказаться в основном индексе сайтов потребуется около 6 недель.
Я не знаю как вас, но меня не устраивает, чтобы мой труд появился в результатах поиска лишь спустя 2 месяца. Для меня это слишком долго, поэтому:
Не используйте стандартную форму регистрации в поисковой машине Google!
Так же Вам не следует использовать подобную форму и на остальных поисковых машинах, таких как: Yahoo, MSN, AltaVista и других…
Итак, как же сделать так, чтобы ваш сайт проиндексировали менее чем за 24 часа?
Для примера, допустим, что у вас есть сайт, посвященный розам. И вы оптимизировали веб-страницы под определенные ключевые слова, содержащие ключевое слово розы.
Теперь, давайте поэтапно пройдем регистрацию сайта ускоренным методом:
Зайдите на www.google.com и введите в форму для поиска различные ключевые слова, которые каким-либо образом относятся к вашему сайту;
Открывайте данные сайты и особое внимание уделяйте на их Page Rank. Для тех, кто не знает, Page Rank показывает количество сайтов и важность их, которые ссылаются на ваш сайт. Если проще, то чем больше сайтов с большим Page Rank будут ссылаться на вашу веб страницу, тем лучше;
Допустим, вы ищете сайт по ключевому слову "роза", вам следует постараться найти веб-сайты, у которых Page Rank равен 6 или больше;
Далее, если вы нашли данные сайты, то вам следует найти на них контактную информацию;
После того, как вы нашли контактную информацию, вам следует написать письмо с просьбой поставить ссылку на ваш сайт, в ответ на ссылку с вашей стороны. Если вы сделали все правильно, то они ответят и поставят вашу ссылку на свой сайт.
Если вы получите ссылку с сайта, PR которого равен 6, то ваш сайт будет проиндексирован менее чем за 3 дня. Если вы получите ссылку с сайта, Page Rank которого равен 7, то ваш сайт будет проиндексирован в базе Google менее чем за 24 часа.
Поэтому, даже если вы не найдете сайты с таким высоким PR, ищите веб страницы с PR не ниже 4, и индексация Вашего творения займет уж точно меньше времени, чем 2 месяца.
Удачи!!!
02.09.07 00:09
Начнём с того, что Интернет не всегда был глобальным. Именно в эпоху его становления, когда эта сеть ещё не была тем, что она представляет для нас сейчас, зародилась концепция поиска информации в этой тогда ещё, по большей части, недоступной для всех сети. Число комьютеров, подключённых к Сети, росло. Информации становилось всё больше и больше. В следствие чего возникла новая проблема, которая стояла перед человечеством, а в первую очередь, перед программистами. Нужно было структурировать информацию так, чтобы любой человек, который бы в ней нуждался, смог найти то, что хочет.
К этому времени человечество уже знало одну достаточно «обкатанную» технологию поиска информации, которая, в частности, использовалась и используется сейчас в библиотеках различного уровня. Это реализация каталогов. Первоначально на них была возложена важная функция структурирования информации. Да, это помогло, но эффект был временным и виден лишь частично.
В этот период зародилась концепция полнотекстового поиска информации, когда машина обрабатывала тексты на страницах, загружала специальным образом обработанные данные в свой индекс (базу), по которой, в последствии, проводился поиск специальной программой. Задача для человека практически недостижимая, т. к. для этой цели явно бы не хватало человеческих ресурсов. Реализация этой задачи была возложена на машины-роботы, база которых была основана на компьютерном мышлении, т. е. логической обработке различных текстовых данных.
Первым этапом этой концепции поиска были каталоги, что и неудивительно. Каталоги по мере своего роста становились громоздкими, что усложняло работу с ними рядовому пользователю.
Одним из первых и авторитетнейших каталогов был Yahoo.com, в последствии переросший в полноценную поисковую систему. На нём была внедрена функция поиска по каталогу.
Но на этом прогресс человеческой мысли не закончился. В последствии были созданы полноценные поисковые системы, которые работали по описанной мной выше схеме. Робот регулярно сканировал новые ресурсы или обновлял информацию о старых, переходя по ссылкам, которые находились на страницах, и добавлял новые и изменённые страницы в индекс, своего рода базу поисковой системы. Поиск же осуществлялся, посредством программного анализа собранной информации и выдачи релевантных (наиболее подходящих) по запросу данных.
Первая поисковая система в Интернете появилась в 1992 году, имя которой было Veronica. Своего рода пробный проект дал почву для развития темы поиска в Интернете. Вслед за ней появились такие системы, как Altavista, Yahoo, Lycos, HotBot.
Вторым этапом развития информационного поиска Интернете следует считать появление на сцене одного из фаворитов веб-поиска – поисковой системы Google. На сегодняшний день эта поисковая система имеет наибольшую базу проиндексированных страниц, наивысшую скорость индексации документов и современные продвинутые технологии поиска и ранжирования полученной информации.
Из поисковиков Рунета следует отменить такие поисковые системы как: Rambler, Webalta, Aport и Яндекс. Яндекс занимает лидирующие позиции поиска в Рунете, имеет продвинутые способы анализа слов и большую базу данных проиндексированных документов.
Гораздо меньшей активностью обладают Rambler и Aport. Они, скорее всего, уже находятся на стадии своего заката. Большие надежды возложены на поисковые системы Webalta и Gogo.ru. Они сравнительно молодые игроки поиска в Рунете. Надеюсь, они добьются своих целей и привнесут много нового в сферу поиска информации в Интернете.
02.09.07 00:09
Сеть Интернет в Киеве в последнее время демонстрирует небывалые показатели роста, как по количеству пользователей, так и по числу веб-серверов. Одновременно с ростом использования Интернет в Украине в качестве бизнес-инструмента растет и ущерб, который наносит различным веб-сайтам и их владельцам несанкционированный доступ к находящейся там информации. Практика показывает, что эффективно защитить веб-сайт можно, лишь предусмотрев все опасности на стадии разработки.
В отраслевом отчете компании VeriSign по итогам 2-го квартала 2005 года фигурирует число в 82,9 млн доменов, из которых за отчетный период было зарегистрировано 8,1 млн доменных имен. Очевидно, что в связи с таким быстрым ростом количества используемых веб-приложений, именно они попали под пристальный взгляд как специалистов по сетевой безопасности, так и тех, кто, пользуясь различными уязвимостями веб-приложений, получают личную выгоду. Здесь специально не используется термин «хакеры», потому что «хакеры», обладая большим багажом знаний для поиска новых уязвимостей, далеко не всегда играют за «нападение»: все чаще и чаще высококлассные специалисты по сетевой безопасности играют в команде «защиты». В сети находится множество материалов по использованию известных уязвимостей веб-сайтов; для осуществления взлома достаточно знать лишь технические азы, а все остальное сделает специально написанная программа.
На самом деле, прежде чем говорить о проблемах безопасности веб-технологий, следует условно разделить веб-серверы на несколько групп: персональный сайт, информационный сайт (портал), корпоративный сайт и веб-сервер программных приложений.
Первую группу не так интересно рассматривать как с точки зрения взлома, так и с точки зрения защиты, так как взлом личного сайта вряд ли вызовет глобальные катаклизмы. Информационный портал уже более интересен для взломщика. Информация - это деньги, изменение информации на требуемую – тоже деньги. Взлом корпоративного сайта также является достаточно востребованным видом сетевой преступности: такие понятия, как промышленный шпионаж и информационная разведка, еще никто не отменял.
Но наиболее интересным представляется атака на веб-серверы приложений. Для начала давайте разберемся, что имеется в виду под веб-ориентированными приложениями. Такие понятия, как CRM, CMS, ERP, прочно вошли в бизнес-реалии современных компаний, а современные веб-технологии позволили перенести эти система (или их интерфейсы) на уровень веб-сервера. Согласитесь, гораздо удобнее получать доступ к последним отчетам о продажах компании из любой точки мира, имея на руках не громоздкое программное обеспечение, а всего лишь веб-браузер. Кроме удобства одним из ключевых преимуществ веб-ориентированных решений является кросс-платформенность. Разработаны веб-браузеры для любой операционной системы, и, соответственно, разработку приложения или интерфейса нужно вести всего лишь под одну платформу – веб. Логично, что подобная трансфигурация существенно сократила время и стоимость разработки и, как результат, цену продукта. Использование веб-ориентированных технологий стало тем самым ключом, открывающим двери к быстрой и эффективной разработке приложений. В результате множество компаний (как среди разработчиков программного обеспечения, так и среди его заказчиков) по всему миру приняли на вооружение подобный инструментарий.
Неавторизованный доступ к самому сердцу корпоративной информационной системы может нести огромные убытки для владельцев компании и баснословную выгоду для взломщика. Именно поэтому веб-ориентированные приложения должны быть качественно защищены, а возможность взлома должна быть если не исключена, то хотя бы минимизирована.
|