Opisy referatów

Zapewnienie ciągłego i bezpiecznego funkcjonowania systemów baz danych Oracle oraz aplikacji Oracle E-Business Suite i PeopleSoft – przegląd najnowszych rozwiązań Quest Software.

Paweł Żuchowski
Quest Polska

Streszczenie:

Celem prezentacji jest przybliżenie najnowszych propozycji Quest Software zapewniających ciągłą i wydajną pracę instalacji opartych o systemy bazodanowe Oracle. Omówimy m.in. możliwości zastosowania naszych produktów diagnozujących i monitorujących systemy oraclowe w odniesieniu do środowiska aplikacji takich jak Oracle E-Business Suite i PeopleSoft (Foglight). Zaprezentujemy możliwości kontroli pracy użytkowników i funkcjonowania sesji w/wym aplikacji przy wykorzystaniu takich ogólnie znanych rozwiązań, jak Toad for Oracle, Spotlight for Oracle/Oracle E-business Suite i Quest Central Performance Analysis. Dodatkowo przedstawimy rozwiązanie funkcjonujące na potrzeby audytów i procedur bezpieczeństwa, umożliwiające gromadzenie i kontrolę logów Oracle (InTrust for Databases). Prezentację uzupełni omówienie zagadnień kontroli wersji wymienionych aplikacji, zarówno pod względem technicznym, jak i biznesowym (Stat for Oracle E-Business Suite/PeopleSoft). Dla instalacji wymagających najwyższej dostępności polecamy Shareplex for Oracle oraz dedykowaną dla instalacji RAC wersję Spotlighta. Na wykładzie zostaną przedstawione zastosowania Shareplex’a pod kątem wykonywania migracji sprzętowych i software’owych, budowania instancji raportujących i doładowywania hurtowni danych w wysoko wydajnych systemach pracujących w trybie online.

Informacja o autorze:

Paweł Żuchowski jest Dyrektorem Handlowym w firmie Quest Polska w której pracuje od czerwca 2004 r. Swoją ścieżkę zawodową rozpoczynał jako administrator Novell i Microsoft w firmie TETA SA w której pracował od 1998. Od początku związany z bazami danych Oracle. Pracując jako product manager i kierownik działu administratorów baz danych w roku 2000 uzyskał tytuł MCSE oraz OCP. Paweł Żuchowski ukończył Uniwersytet Wrocławski, uzyskując tytuł magistra na wydziale Informatyki. Wiedzę swoją pogłębiał dalej na licznych kursach w kraju i zagranicą.

Networking for Oracle

Zbigniew Skurczyński
F5 Networks

Streszczenie:

As an Oracle Certified Partner, F5 works jointly with Oracle to solve the common challenges in developing and executing application delivery for Oracle E-Business Suite 11i, PeopleSoft, Siebel, Oracle Application Server 10g, and 9i Application Server (Oracle9iAS). By deploying F5’s BIG-IP solutions, Oracle has achieved maximum availability, scalability, and increased performance of their Web services and applications. Regional Director for Central and Eastern Europe Zbigniew Skurczynski will share how F5 and Oracle provide successful application delivery in today’s complex network environments.

Grid obliczeniowy w Oracle Austin Data Center – przykład zastosowania pamięci masowej NetApp

Krzysztof Celmer
Network Appliance

Streszczenie:

Oracle Austin Data Center to jeden z najbardziej zaawansowanych ośrodków przetwarzania danych na świecie. Stanowi doskonały przykład praktycznego zastosowania technologii „grid computing” w zastosowaniu komercyjnym na dużą skalę. W czasie referatu omówimy kluczowe założenia architektury tego ośrodka przetwarzania danych. Położony zostanie nacisk na infrastrukturę pamięci masowej, wspierającej przetwarzanie tej olbrzymiej instalacji.

Informacja o autorze:

Krzysztof Celmer kieruje polskim oddziałem firmy Network Appliance. Od wielu lat jest związany rynkiem IT, w ostatnich latach koncentruje się na systemach pamięci masowych.

Raportowanie w XML dla zwykłych ludzi – Oracle XML Publisher

Tomasz Traczyk
Politechnika Warszawska

Streszczenie:

Od dawna wiadomo, że XML może świetnie służyć do tworzenia złożonych raportów z danych. Potrzebne do tego technologie i narzędzia, takie jak XSQL, XSL, XSL-FO, istniały już od kilku lat, ale dla przeciętnego użytkownika były zbyt skomplikowane. Zaproponowane przez Oracle narzędzie XML Publisher zdaje się zmieniać ten stan rzeczy: wykorzystuje siłę i elastyczność technologii XML-owych, ale jest dostosowane do potrzeb i możliwości „zwykłego człowieka”. Referat przypomni technologie, na których opiera się działanie narzędzia XML Publisher oraz zaprezentuje możliwości tego narzędzia; dokonane zostanie także porównanie z innymi narzędziami do raportowania.

Informacja o autorze:

Autor jest adiunktem na Politechnice Warszawskiej. Specjalizuje się w zastosowaniach baz danych i języka XML.

Oracle XML Publisher – nowe narzędzie do raportowania Oracle

Barbara Reimschussel-Wąs
Softbank S.A.

Streszczenie:

Na ogół uważa się, że jeśli chce się zobaczyć działający razem i w sposób zintegrowany pełen przekrój technologii i produktów Oracle, należy przyjrzeć się e-Business Suite (OeBS). Rzeczywiście znajdują tam zastosowanie: serwer aplikacji Oracle Application Server, narzędzia programistyczne zarówno starsze (Oracle Forms, Oracle Reports), jak i te oparte o technologie J2EE (JDeveloper), Oracle Workflow, narzędzia analityczne, nie mówiąc już o samej bazie danych. Często przy tym zdarza się, że w e-Business Suite wymagane jest używanie starszej wersji narzędzi, niż aktualnie dostępne na rynku (w skrajnym przypadku Oracle Developer-a, w OeBS wymagana jest wersja 6i, starsza aż o 2 wydania od obecnej 10g), co sprawia wrażenie, ze co prawda OeBS integruje ze sobą różnorakie technologie, są to jednak technologie starsze i niekiedy „nie na czasie”. Ale oto mamy przykład odwrotny – na potrzeby systemu OeBS został opracowany produkt, pełniący początkowo rolę uzupełniającą do innych, który zaczął być na tyle szeroko stosowany i spotkał się z tak życzliwym przyjęciem, że Oracle postanowił go wypromować jako narzędzie samodzielne, sprzedawane także poza systemem OeBS. Można nawet napotkać opinie, że ma on zastąpić w przyszłości Oracle Reports. Ten produkt to Oracle XML Publisher, narzędzie do tworzenia raportów i dokumentów, którego zaprezentowanie jest celem niniejszej sesji. Na początku przedstawione zostaną najważniejsze elementy Oracle XML Publishera:

  • Oracle XML Publisher Template Builder, czyli proste narzędzie umożliwiające skonstruowanie raportu użytkownikom biznesowym,
  • Oracle XML Publisher Enterprise – pozwalający na zarządzanie, publikowanie oraz harmonogramowanie raportów,
  • Najistotniejszą część aplikacji – biblioteki Javy, które umożliwiają zintegrowanie Oracle XML Publishera z innymi systemami.

Pokazane też zostanie, jak Oracle XML Publisher wykorzystuje rekomendacje XSL rozwijane przez konsorcjum W3C:

  • XSL:FO,
  • XSLT,
  • XPath.

Następnie przedstawione zostaną przykłady zastosowania narzędzia zarówno w OeBS, w połączeniu z Oracle Reports, jak i w integracji z innymi systemami. Na koniec sesji pokazany zostanie sposób wykorzystania XML Publishera w jednej z najbardziej złożonych implementacji w Europie (wymagania wydajnościowe – 10 tys. generowanych dokumentów na godzinę), w ramach wdrożenia systemu GraphTalk, w jednej z największych instytucji finansowych w Polsce.

Informacja o autorze:

Autorka pracuje w firmach wykorzystujących produkty Oracle od 1998 r., w tym od 1999 r. w firmie Softbank S.A. Wraz z firmą Softbank S. A. zajmowała się m.in. wdrożeniami systemu Oracle eBS, pełniąc funkcję kierownika zespołu technicznego, projektującego oraz implementującego rozszerzenia i modyfikacje. Ostatnio bierze udział w projekcie wdrożenia systemu, którego częścią jest implementacja Oracle XML Publisher-a, w jednej z największych instytucji finansowych w Polsce. Autorka posiada także certyfikaty firm Microsoft i Sun.

Co nowego w Java EE?

Marek Wojciechowski
Politechnika Poznańska

Streszczenie:

Najnowsza wersja specyfikacji Java Enterprise Edition wprowadza szereg istotnych zmian wpływających na sposób tworzenia aplikacji w tej technologii. W artykule zostaną przedstawione i zilustrowane przykładami najistotniejsze zmiany i nowe elementy specyfikacji, ze szczególnym uwzględnieniem EJB 3.0 i Java Persistence API.

Informacja o autorze:

Marek Wojciechowski jest adiunktem w Instytucie Informatyki Politechniki Poznańskiej. Specjalizuje się w eksploracji danych i technologiach internetowych.

Baza danych Oracle jako otwarte i rozszerzalne środowisko obliczeniowe. Integracja Maszyny Wirtualnej Perla z jądrem Oracle.

Piotr Jarmuż
ITTI Sp. z o. o.

Streszczenie:

Artykuł ma na celu pokazanie, że Oracle to coś znacznie więcej niż tylko czarna skrzynka przetwarzająca zapytania SQL. W bazie danych Oracle istnieje szereg otwartych i udokumentowanych API umożliwiających dowolne rozszerzanie jądra Oracle. Artykuł powstał na bazie projektu mającego na celu zintegrowanie środowiska języka Perl i bazy danych Oracle oraz umożliwienie pisania procedur składowanych w Perlu. Wykorzystanie funkcji przetwarzania tekstów Perla w połączeniu ze skalowalnością Oracle pozwala na uzyskanie całkiem nowej jakości. Artykuł opisuje ogólną architekturę Oracle’a, podstawy maszyny wirtualnej Perla oraz pomysł, sposób i szczegóły implementacyjne realizacji projektu integracyjnego. Artykuł dotyczy bazy danych Oracle 9i r2 i wersji maszyny Perla 5.8.0.

Informacja o autorze:

PIOTR JARMUŻ w latach 1991-1993 studiował na Politechnice Poznańskiej na kierunku Elektrotechnika. W latach 1993-1996 kontynuował studia w EFP – Francusko-Polskiej Wyższej Szkole Technik Informatyczno-Komunikacyjnych w Poznaniu. W 1995 roku odbył półroczny staż w instytucie badawczo rozwojowym Forschung und Technik Daimler-Benz w Berlinie. Stopień magistra inżyniera uzyskał w 1996 roku w dziedzinie systemów rozproszonych. Od 1998 roku pracował na stanowisku programisty aplikacji bazodanowych w firmie Praendle Software GmbH w Berlinie. Od roku 2000 pracował jako kierownik polskiej grupy programistów przy projekcie Messe Frankfurt Online w Bertelsman Nionex w Guetersloh w Niemczech. Od 2002 do 2004 jako administrator i deweloper baz danych Oracle w firmie ASCO GmbH w Braunschweig, Niemcy. Po powrocie do Polski przez pół roku pracował jako konsultant w firmie DGA S.A w Poznaniu. Obecnie w ITTI na stanowisku konsultanta realizuje projekty związane z analizą, projektowaniem i budową systemów informatycznych oraz z zagadnieniami bezpieczeństwa informacji.

„Małe jest funkcjonalne”, czyli porównanie bezpłatnych wersji systemów zarządzania bazą danych udostępnianych przez rynkowych potentatów – IBM, Microsoft, Oracle, Sybase

Mariusz Masewicz
Politechnika Poznańska

Streszczenie:

W ostatnich latach prawie każdy powstający system informatyczny wykorzystuje do składowania swoich danych któryś z dostępnych na rynku systemów zarządzania bazą danych. Rynek takich systemów oferuje szereg rozwiązań – począwszy od systemów bezpłatnych, często udostępnianych na licencji open source, a skończywszy na rozwiązaniach bardzo drogich, ale oferujących w zamian często dodatkową wartość, za którą klienci chętnie zapłacą. I tak rozwiązania bezpłatne, często tworzone zgodnie z ideą wolnego oprogramowania bardzo dobrze sprawdzają się jako mała baza, gromadząca niewielkie ilości informacji. Często też wsparcie techniczne oferowane użytkownikom jest szczątkowe lub nie ma go wcale. Z drugiej strony istnieją jednak systemy rynkowych potentatów, świetnie radzące sobie z olbrzymimi ilościami danych, skalowalne, bezpieczne z doskonałym wsparciem technicznym, ale co za tym idzie ich cena też jest odpowiednio wysoka. Taki podział rynku baz danych sprawia, że twórcy oprogramowania korzystającego z tych systemów muszą często dokonać wyboru istotnego zarówno dla nich, ale głównie dla użytkownika końcowego – czy zdecydować się na rozwiązanie tańsze teraz z perspektywą dużych problemów w przyszłości, kiedy system się rozrośnie, czy też zaproponować klientowi rozwiązanie od początku drogie, ale wówczas rozrastanie się systemu będzie się odbywać w sposób niezauważalny dla użytkownika. Producenci największych rynkowych systemów baz danych zauważyli ten dylemat deweloperów i od pewnego czasu oferują produkt pośredni – bezpłatną, ale ograniczoną wersję dużego systemu. Dzięki temu deweloper może już teraz oferować rozwiązanie, które w przyszłości łatwo będzie można skalować w miarę wzrastających potrzeb użytkownika, a przy okazji koszt początkowego wdrożenia takiego rozwiązania jest niewysoki. Niniejszy artykuł jest próbą porównania funkcjonalności bezpłatnych wersji systemów zarządzania bazami danych udostępnianych przez producentów znanych dotąd z produktów dużych, drogich, ale jednocześnie funkcjonalnych, skalowanych i bezpiecznych. Do porównania zostały wybrane produkty czterech firm: IBM, Microsoft, Oracle, Sybase.

Informacja o autorze:

mgr inż. Mariusz Masewicz jest pracownikiem Instytutu Informatyki Politechniki Poznańskiej. Od wielu lat jest też twórcą, administratorem i użytkownikiem wielu aplikacji opartych o bazę danych Oracle. Przez cały ten czas w kręgu jego zainteresowań znajduje się szereg zagadnień związanych z optymalizacją pracy poszczególnych składników architektury Oracle.

Oracle Secure Enterprise Search – omówienie oraz ocena praktycznej przydatności

Artur Gramacki, Jarosław Gramacki
Instytut Informatyki i Elektroniki Uniwersytet Zielonogórski

Streszczenie:

W artykule omówiono udostępniony w połowie 2006 roku przez firmę Oracle nowy produkt o nazwie Secure Enterprise Search (SES). Zastępuje on znany od dłuższego już czasu moduł Ultra Search (US) dostępny w wersjach 9i oraz 10g serwera bazodanowego Oracle. SES w odróżnieniu od US stanowi niezależny produkt instalowany w oddzielnym ORACLE_HOME (i niestety również oddzielnie nabywany). Zgodnie z oficjalnymi informacjami podawanymi przez firmę Oracle moduł US będzie nadal dołączany do aktualnej wersji serwera 10g oraz wersji nowszych, jednak nie będzie już wprowadzana do niego żadna nowa funkcjonalność (utrzymywanie w tzw. trybie bug fix). W artykule pokrótce scharakteryzowane SES oraz porównano go z modułem US.

Informacja o autorach:

dr inż. Artur Gramacki – pracuje w Instytucie Informatyki i Elektroniki Uniwersytetu Zielonogórskiego na stanowisku adiunkta. Jego zainteresowania koncentrują się wokół szeroko rozumianych zagadnień związanych z bazami danych, w szczególności firmy Oracle. Oprócz prowadzenia zajęć dydaktycznych stara się wykorzystywać swoją wiedzę uczestnicząc w różnych projektach informatycznych z tego zakresu. Brał udział w czterech projektach, których celem było przygotowanie systemów wspomagających działalność Uniwersytetu Zielonogórskiego. dr inż. Jarosław Gramacki – jest pracownikiem naukowym w Instytucie Informatyki i Elektroniki Uniwersytetu Zielonogórskiego. Zajmuje się projektowaniem, wykonywaniem oraz wdrażaniem aplikacji bazodanowych usprawniających szeroko rozumiane zarządzanie Uczelnią. Od wielu lat prowadzi również zajęcia dydaktyczne dotyczące projektowania baz danych, działania i administrowania systemami zarządzania bazami danych oraz wykorzystania technologii Oracle w budowie aplikacji użytkowych.

Oracle TimesTen – hiperszybka relacyjna baza danych

Marek Martofel
Oracle Polska

Streszczenie:

Oracle TimesTen jako typowe oprogramowanie klasy „In Memory Database” często spotykane jest w oprogramowaniu gdzie elementem krytycznym jest minimalny czas odpowiedzi i przetwarzania gwarantowany przez system. Szeroki zakres zastosowań, oraz fakt iż jest to typowa relacyjna baza danych sprawia iż Oracle TimesTen jest szeroko stosowany w gotowych aplikacjach jak i rozwiązanych tworzonych dla szczególnych wymagań klienta. Najczęstsze spotykane rozwiązania eksploatowane są od lat w branżach takich jak finanse, telekomunikacja, linie lotnicze, czy systemy command control. Celem prezentacji jest przedstawienie Oracle TimesTen jako relacyjnej bazy danych będącej podstawą do tworzenia wysoko dostępnych systemów czasu rzeczywistego, oraz jego opcji współpracy z relacyjną bazą danych Oracle10g Release 2 w nowo tworzonych i istniejących systemach.

Oracle applications run better with F5

Zbigniew Skurczynski
F5 Networks

Streszczenie:

Application Delivery Networking for Oracle. Traditionally applications and networks have been at odds with one another. Application teams frequently view the network as simple connectivity and routing. Network teams view the application as yet another security incident or performance problem waiting to happen. Lack of coordination between IT teams has exacerbated the issue. There is a better emerging architectural model called Application Delivery Networking that goes beyond traditional Layer 2-3 networking. Application Delivery Networking encompasses Layer 4-7 technologies which are focused on offloading application security, acceleration, and availability functions from the applications themselves to save time, money, and improve coordination. The objective is to create a common repeatable network services model that can be leveraged by all application types to improve application performance, security, and availability. F5 and Oracle have collaborated to create rich documentation and deployment guides to help customers quickly and easily deploy the pre-tested configuration for Application Delivery Network. In the presentation we will be introducing some of the most common deployment scenarios for performance improvement of web applications.

Symantec dla Oracle – zarządzanie serwisami tworzonymi z wykorzystaniem technologii firmy Oracle

Piotr Nogaś
Symantec

Streszczenie:

Dla krytycznych środowisk biznesowych niezbędne staje się spełnienie zakontraktowanych poziomów świadczenia usługi. Prezentacja ma za zadanie wskazać Państwu w jaki sposób można zarządzać serwisami Oraclowymi w zakresach:

  • kontroli kosztów
  • wysokiej dostępności
  • wydajności
  • skalowalności
  • zabezpieczania danych
  • bezpieczeństwa end2end w wybranych zastosowaniach.

Informacja o autorze:

Piotr Nogaś jest absolwentem Wydziału Mechatroniki Politechniki Warszawskiej. Swoją karierę zawodową rozpoczął w 1997 roku jako konsultant w firmie Digital Equipment Poland. W latach 1998-2000 pełnił obowiązki Managera w organizacji serwisowej EMC Computer Systems. W 2000 roku rozpoczął pracę w IBM Polska na stanowisku Advisory Storage Sales Specialist. Natomiast od września 2001 roku pełni funkcję architekta systemów w polskim oddziale VERITAS Software (obecnie Symantec).

Błyskawiczny backup i odtwarzanie baz Oracle w systemach pamięci masowej NetApp

Krzysztof Celmer
Network Appliance

Streszczenie:

Wraz ze wzrostem ilości danych w bazach Oracle backup, a w szczególności szybkie i skuteczne odtwarzanie danych staje się coraz trudniejszym zadaniem. W czasie referatu omówimy zastosowanie unikalnej, opatentowanej technologii kopii migawkowych SnapShot (TM) firmy Network Appliance do backupowania baz danych Oracle. Skoncentrujemy się na integracji migawek z motorem bazy danych i dostępnymi w nim mechanizmami zarządzania danymi przy pomocy narzędzia SnapManager for Oracle. Referat będzie przeplatany pokazem zastosowania omawianych mechanizmów w praktyce.

Informacja o autorze:

Krzysztof Celmer: por. referat „Grid obliczeniowy w Oracle Austin Data Center – przykład zastosowania pamięci masowej NetApp”.

Klonowanie baz danych Oracle w systemach pamięci masowej NetApp

Krzysztof Celmer
Network Appliance

Streszczenie:

Klonowanie produkcyjnych baz danych znajduje swoje podstawowe zastosowanie przy rozwoju oprogramowania, jak i w zastosowaniach analitycznych. Technologia FlexClone firmy Network Appliance umożliwia tworzenie klonów baz danych Oracle w czasie pojedynczych sekund, istotnie ułatwiając zarządzanie danymi baz Oracle w środowiskach produkcyjnych oraz developerskich. W czasie referatu omówimy praktyczne zastosowanie tej technologii i metody jej integracji z bazami Oracle. Referat będzie przeplatany pokazami technologii FlexClone w praktyce.

Informacja o autorze:

Krzysztof Celmer: por. referat „Grid obliczeniowy w Oracle Austin Data Center – przykład zastosowania pamięci masowej NetApp”.

Państwo jako system informatyczny, czyli dlaczego nasze prawo musi być złe

Tomasz Wyrozumski
BMS Creative

Streszczenie:

Artykuł jest swoistym eksperymentem polegającym na porównaniu państwa do potężnego systemu informatycznego, w którym prawo pełni rolę oprogramowania. Staramy się przyjrzeć procesowi tworzenia prawa i skonfrontować go z najbardziej ogólnymi zasadami budowania oprogramowania komputerowego. Z takiego podejścia wyciągamy niezbyt optymistyczne wnioski, lecz spoglądając cały czas okiem informatyka próbujemy wskazać pewne sposoby poprawy sytuacji. Zwracamy przy tym uwagę na bardzo ważną kwestię kompatybilności „sprzętu” i „oprogramowania”. Nie licząc specjalnie na zainteresowanie tematem polityków odwracamy na koniec tok rozumowania i zastanawiamy się, jakie konkretne korzyści może odnieść projektant systemów informatycznych z analizowania szerokiego spektrum analogii pomiędzy prawem i oprogramowaniem.

Informacja o autorze:

Z wykształcenia fizyk, absolwent Uniwersytetu Jagiellońskiego. Doktorat w dziedzinie fizyki teoretycznej na Uniwersytecie Wiedeńskim. Od 1992 roku zajmuje się profesjonalnie informatyką, kierując firmą BMS Creative (dawniej Biuro Matematyki Stosowanej). Uczestniczy przy tym aktywnie w komercyjnych projektach, których istotnym elementem jest tworzenie oprogramowania. Interesują go między innymi szeroko rozumiane, informatyczne aspekty zarządzania – tak w skali mikro, jak i makro.

Jak wzrost mocy obliczeniowej i postęp w badaniach matematycznych zagraża współczesnym rozwiązaniom bezpieczeństwa informatycznego

Piotr Kotlarz
Uniwersytet Kazimierza Wielkiego w Bydgoszczy

Streszczenie:

Bezpieczeństwo współczesnych algorytmów szyfrujących z grupy asymetrycznych bazuje na pewnych ograniczeniach współczesnej matematyki. Szerokie zastosowania kryptografii asymetrycznej w powszechnie stosowanych protokołach sieciowych, skłania do postawienia pytania: na ile takie rozwiązanie, w sytuacji gdy bezpieczeństwo stosowanych algorytmów nie jest dane raz na zawsze, jest bezpieczne? W większości przypadków mówiąc o bezpieczeństwie, rozważa się problem faktoryzacji. Atakiem wywodzącym się niemal z definicji, jest atak polegający na próbie uzyskania na podstawie przechwyconego klucza publicznego, klucza prywatnego niezbędnego do odczytania zaszyfrowanej wiadomości. W pracy tej opisujemy możliwość przeprowadzenia ataku na algorytm RSA, z wykorzystaniem dwóch metod. Faktoryzacji oraz z wykorzystaniem funkcji Eulera. W pracy przedstawiona jest analiza potencjalnych kosztów (czasowych i obliczeniowych) dla obydwu metod. Przeprowadzone zostaną również rozważania na temat mocnych i słabych kluczy dla szyfru RSA. Jakość kluczy omówiona zostanie z uwzględnieniem wyżej wspomnianych, dwóch algorytmów realizujących atak na algorytm szyfrujący. Przeprowadzona zostanie również dyskusja jak możliwości przeprowadzenia skutecznego ataku na RSA wpływają na bezpieczeństwo dokumentu elektronicznego.

Informacja o autorze:

Piotr Kotlarz stopień magistra uzyskał w 2002 roku na Akademii Bydgoskiej, specjalność Technika Komputerowa. Od 2003 roku Asystent w Instytucie Mechaniki Środowiska i Informatyki Stosowanej UKW, gdzie kierował projektami z zakresu pogłębiania specjalizacji jednostki, bierze udział w badaniach naukowych oraz w pracy dydaktycznej. Wyróżniony nagrodą zespołową Rektora UKW II stopnia za badania naukowe. Od 2005 roku doktorant IPPT Polskiej Akademii Nauk. Zainteresowania naukowe: kryptografia, bezpieczeństwo informatyczne, sztuczna inteligencja. Autor i współautor wielu prac naukowych publikowanych na konferencjach krajowych i międzynarodowych. Autor kilku referatów popularno-naukowych wygłoszonych na konferencjach branżowych. Autor oraz współredaktor dwóch pozycji książkowych. W kręgach zainteresowań leży: nowoczesna technologia, biznes i ekonomia, historia nauki. Hobby: turystyka górska (czynna), gotowanie (kuchnia orientalna i polska), literatura popularno-naukowa… Autor posiada również bogate doświadczenie poza akademickie w zakresie administrowania, projektowania i budowania sieci informatycznych.

Budowa Wirtualnego Przedsiębiorstwa w oparciu o istniejące standardy przepływu pracy

Rafał Knapik
ITTI Sp. z o. o., Uniwersytet im. Adama Mickiewicza w Poznaniu

Rafał Renk
ITTI Sp. z o. o., Uniwersytet im. Adama Mickiewicza w Poznaniu

Andrzej Adamczyk
ITTI Sp. z o. o.

prof. Witold Hołubowicz
ITTI Sp. z o. o., Uniwersytet im. Adama Mickiewicza w Poznaniu

Streszczenie:

Artykuł przedstawia powstałą w trakcie prac nad projektem IST VISP (Virtual ISP) w ramach Szóstego Programu Ramowego koncepcję zastosowania standardów przepływu pracy w informatycznej platformie Wirtualnego Przedsiębiorstwa. W treści artykułu opisano samą platformę oraz przeanalizowano standardy dotyczące zarówno bezpośrednio procesów biznesowych, w tym ich modelowania, choreografii, orkiestracji oraz integracji silników przepływu pracy, jak i standardy powiązane z wykonywaniem procesów, dotyczące usług sieciowych i wymiany informacji w systemach rozproszonych. Standardy te ocenione zostały według zdefiniowanych w artykule kryteriów wynikających z wymagań platformy Wirtualnego Przedsiębiorstwa. Na zakończenie przedstawiona została dyskusja problemów i korzyści związanych z zastosowaniem poszczególnych standardów oraz możliwe sposoby wykorzystania opisanej platformy.

Informacja o autorach:

RAFAŁ KNAPIK ukończył kierunek Informatyka Politechniki Poznańskiej w 2001 roku. Od 1999 do 2001 roku zajmował się tworzeniem aplikacji internetowych w firmie 7bulls.com. Następnie zajmował się administracją serwera internetowego w firmie Syberia, a przez kolejne 3 lata zatrudniony był na stanowisku programisty-analityka w firmie Polarys, gdzie zajmował się aplikacjami bankowymi oraz systemami typu firewall. Obecnie pracuje w firmie ITTI na stanowisku starszego konsultanta. Brał udział w takich projektach, jak system udostępniania informacji przez Internet za pomocą quasi-inteligentnego modułu komunikacyjnego, system archiwizacji plików historycznych systemu bankowości detalicznej, system wymiany informacji o klientach z centralą grupy bankowej za pomocą kolejek MQSeries oraz tworzenie strategii informatyzacji dla jednostki administracji publicznej. Poza pracą w ITTI zaangażowany jest jako pracownik kontraktowy Uniwersytetu Adama Mickiewicza w finansowany przez Unię Europejską projekt europejski VISP, którego celem jest stworzenie platformy umożliwiającej integrację usług internetowych świadczonych przez różnych dostawców usług.

RAFAŁ RENK jest absolwentem Akademii Techniczno-Rolniczej (ATR) w Bydgoszczy, którą ukończył w 1998 roku. W ATR pracował nad zagadnieniami związanymi z trójwymiarowymi światami wirtualnymi. Od 1998 roku jest pracownikiem ITTI, gdzie piastuje obecnie stanowisko dyrektora ds. rozwoju. Rafał Renk wykonywał oraz współkierował szeregiem projektów poruszających tematykę sieci telekomunikacyjnych w aspekcie technicznym i biznesowym oraz zagadnień informatycznych związanych z: inżynierią oprogramowania, technologiami internetowymi, aplikacjami i systemami baz danych oraz technologią i metodyką zdalnego kształcenia multimedialnego z systemami zdalnego nauczania oraz projektowania hurtowni danych. Projekty o tematyce telekomunikacyjnej dotyczyły zarówno rynku polskiego, jak i międzynarodowego, a ich tematyka obejmowała m.in. analizy rynkowe (w zakresie telefonii IP, transmisji danych itp.), tworzenie strategii budowy i rozbudowy sieci telekomunikacyjnych zarówno dostępowych jak i szkieletowych a także zagadnienia techniczne związane z VoIP, sieciami dostępowymi, sieciami szkieletowymi, protokołami i standardami technologii internetowych, strumieniowania, jakością usług w sieci IP oraz systemów zdalnego nauczania. Prace związane z systemami zdalnego nauczania obejmowały zagadnienia związane ze standaryzacją tego typu systemów oraz przeprowadzania i automatycznej oceny wyników egzaminów (wykorzystanie języka XML i ontologii). Rafał Renk jest również autorem bądź współautorem licznych publikacji i wystąpień na krajowych oraz zagranicznych konferencjach.

ANDRZEJ ADAMCZYK w latach 1991-1993 studiował na Politechnice Poznańskiej na kierunku Telekomunikacja i Elektronika. W latach 1993-1996 kontynuował studia w EFP – Francusko-Polskiej Wyższej Szkole Technik Informatyczno-Komunikacyjnych w Poznaniu. W 1995 roku odbył półroczny staż w laboratorium LAAS-CNRS w Tuluzie we Francji. Stopień magistra inżyniera uzyskał w 1996 roku w dziedzinie systemów rozproszonych. Od 1996 roku pracował na stanowisku Kierownika Pracowni Systemów Informatycznych w Instytucie Technik Telekomunikacyjnych i Informatycznych (ITTI) w Poznaniu. W Zespole Systemów Informatycznych i Multimediów pod kierownictwem prof. dr hab. inż. Czesława Jędrzejka prowadził projekty w następujących dziedzinach: inżynieria oprogramowania, technologie inter- i intranetowe, aplikacje i systemy baz danych oraz technologia i metodyka zdalnego kształcenia multimedialnego. Koordynował projekty Piątego Programu Ramowego, programu Leonardo da Vinci i PHARE. Przez rok kierował działaniami informatycznymi firmy ALMA S.A. na stanowisku Dyrektora Departamentu Systemów i Aplikacji. Obecnie w ITTI na stanowisku starszego konsultanta realizuje projekty związane z analizą, projektowaniem i budową systemów informatycznych oraz z zagadnieniami bezpieczeństwa informacji.

WITOLD HOŁUBOWICZ jest absolwentem Wydziału Elektrycznego Politechniki Poznańskiej, gdzie uzyskał stopnie doktora i doktora habilitowanego. W latach 1987-89 był wykładowcą na Politechnice w Nowym Jorku, a w latach 1992-96 we Francusko-Polskiej Wyższej Szkole Nowych Technik Informatycznych i Komunikacyjnych (EFP) w Poznaniu. Od października 1996 r. jest profesorem na Wydziale Telekomunikacji i Elektrotechniki Akademii Techniczno-Rolniczej (ATR) w Bydgoszczy. Jest również profesorem i kierownikiem Zakładu Informatyki Stosowanej na Uniwersytecie A. Mickiewicza (od 2003 roku). Od 1996 r. jest także zawodowo związany z Instytutem Technik Telekomunikacyjnych i Informatycznych (ITTI) w Poznaniu, gdzie pełni obecnie funkcję prezesa zarządu. Jest również współtwórcą i przewodniczącym Komitetu Programowego Krajowej Konferencji Radiokomunikacji Ruchomej w Poznaniu (KKRR) w latach 1996-2000. Zainteresowania zawodowe Witolda Hołubowicza obejmują m.in. radiokomunikację (w tym technologie transmisji z poszerzonym widmem CDMA), aspekty techniczno-rynkowe sieci komunikacji ruchomej GSM i UMTS, aspekty usługowe sieci komórkowych i konwergentnych. Uczestniczył i kierował wieloma projektami naukowo-badawczymi i wdrożeniowymi, w tym również realizowanymi pod egidą Komisji Europejskiej. Witold Hołubowicz jest autorem ponad 100 publikacji zamieszczonych w czasopismach naukowych krajowych i zagranicznych oraz w materiałach konferencyjnych. Jest również współautorem 4 książek z zakresu łączności bezprzewodowej.

ITIL w zastosowaniu – IBM Tivoli Unified Process

Jarosław Łagowski
IBM

Streszczenie:

IBM Tivoli Unified Process (ITUP) stanowi przykład implementacji filozofii ITIL (przedstawionej w ogólnym zarysie w ubiegłorocznym referacie). ITUP dostarcza komplet rozwiązań bazując na „best practices” w zarządzaniu usługami IT pomagając osiągnąć najlepszą jakość i wydajność tych usług. W skład kompletu wchodzą:

  • Model procesów IBM Process Reference Model for IT (PRM-IT), stworzony w oparciu i będący rozwinięciem modelu procesów ITIL
  • Mapa Narzędzi Szczegółowy przewodnik po zestawie oprogramowania wspomagającego, pokazujący miejsce i zastosowanie konkretnych narzędzi w kontekście procesów PRM-IT
  • Definicja ról Definicja ról i odpowiedzialności w kontekście procesów PRM-IT, z odwołaniem do oprogramowania wspierającego daną rolę * Definicja produktów (wejście/wyjście procesów) Szczegółowy opis elementów oczekiwanych przez poszczególne procesy jako wejście i spodziewanych jako produkt
  • Scenariusze Scenariusze, przykłady do zastosowania w praktyce

Rozwiązanie jest dostępne za darmo do pobrania z WWW (natomiast wskazywane oprogramowanie – już nie). Referat ma na celu zapoznanie słuchaczy z podstawowymi pojęciami ITUP w kontekście metodologii ITIL.

Informacja o autorze:

Absolwent Wydziału Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego (1992). Obszary zainteresowań: bazy danych, Disaster Recovery, ITIL. Od 2002 w IBM Polska, dział: IBM Technology Services, stanowisko: IT Advisory Specialist.

Jak sprzedać duży system małej firmie?

Małgorzata Radziejowska
BMS Creative

Streszczenie:

Artykuł jest próbą analizy problemów, na jakie natrafia się podczas sprzedaży systemów informatycznych sektorowi MSP, a konkretnie odbiorcom z pogranicza małych i średnich przedsiębiorstw. Koncentrujemy się przy tym nie tylko na kwestiach motywacji zakupu, lecz również na różnych aspektach zarządzania firmą, wymuszających określone zachowania dostawców. Na przykładzie kompleksowych rozwiązań typu CRM próbujemy dokonać analizy typowych porażek potencjalnego oferenta, a zarazem przedstawić punkt widzenia kierownictwa firmy należącej do grupy MSP. Przeprowadzamy tu też pewne porównania z sektorem przedsiębiorstw dużych, nie ograniczając się przy tym wyłącznie do kwestii samego zakupu, lecz również wdrożenia i dalszego utrzymania systemu informatycznego.

Informacja o autorze:

Ukończyła studia w dziedzinie zarządzania i marketingu w przemyśle na Akademii Górniczo-Hutniczej w Krakowie. Od 2000 roku jest związana z branżą informatyczną. W firmie BMS Creative pracuje obecnie na stanowisku dyrektora Działu Marketingu. Odpowiada między innymi za sprzedaż rozwiązań wspierających zarządzanie przedsiębiorstwem oraz systemów wspomagających podejmowanie decyzji. Do jej zadań należy również organizowanie finansowania projektów informatycznych przy wykorzystaniu funduszy UE.

Planowanie wydajności w środowisku Oracle

Tomasz Kazimierski
Oracle Polska

Streszczenie:

Angielski termin Capcity Planning jest tłumaczony na wiele sposobów jako „wymiarowanie”, „planowanie mocy obliczeniowej” czy „planowanie wydajności”. To ostatnie tłumaczenie, choć mało dosłowne, wydaje się najlepiej oddawać istotę tej aktywności. Chodzi tu bowiem o ciągły proces dopasowywania zdolności systemu do obsługi żądań pracy przy zmieniających się wymaganiach lub planów zmiany tych wymagań. Parametrami wejściowymi dla procesu planowania wydajności są między innymi:

  • Wyniki obserwacji wydajności systemu,
  • Wyniki obserwacji obciążenia systemu,
  • Wiedza o wymaganiach aplikacji i innych składowych rozwiązania,
  • Plany zmiany obciążenia biznesowego (np. promocje).

W wyniku oczekujemy utworzenia planu wydajności, który powinien pomóc odpowiedzieć na pytania takie jak:

  • Jak będzie się zmieniała wydajność przy zmianie obciążenia?
  • Jak wówczas zmieni się zużycie zasobów?
  • Czy istnieją zagrożenia dla stabilności przetwarzania?
  • Czy obecna konfiguracja sprzętowa podoła zmianom?
  • Jeśli nie, to jak ją rozbudować?

Istnienie procesu planowania wydajności lub zarządzania wydajnością jest elementem wielu metodyk i ram procedur operacyjnych w tym ITIL. Praktycznie jednak często jest on pomijany lub marginalizowany co prowadzi do utraty kontroli nad tym aspektem i dalej do bolesnych (także dla podstawowej działalności przedsiębiorstw) problemów wydajnościowych. Celem tego opracowania jest uporządkowanie podstawowych pojęć związanych z planowaniem wydajności oraz wskazanie skutecznych technik i metod planowania wydajności dla złożonych systemów informatycznych ze szczególnym uwzględnieniem aktywności związanej z obsługą bazy danych Oracle.

Informacja o autorze:

Tomasz Kazimierski – Solution Architect; w Oracle Polska od 1996; doświadczenie zawodowe obejmuje analizę i projektowanie złożonych systemów IT opartych o technologię Oracle; wcześniejsze doświadczenia jako DBA i programista Oracle.

Czy wydajność oznacza niezawodność? Czy niezawodność oznacza wydajność?

Zbigniew Swoczyna
Sun

Informacje o autorze:

Absolwent wydziału Mechanicznego Energetyki i Lotnictwa Politechniki Warszawskiej. W 1999 zaczął pracę w Sun Microsystems na stanowisku inżyniera sprzedaży. Od początku silnie współpracuje z rynkiem telekomunikacyjnym. Wcześniej pracował w Instytucie Techniki Lotniczej i Mechaniki Stosowanej biorąc udział w tworzeniu i pracy jednego z pierwszych w Polsce laboratoriów CAD/CAM/CAE w oparciu o platformę Sun/SunOS/Solaris. Z branżą IT związany od 1994, jako inżynier systemowy w firmie Computervision (oprogramowanie CAD/CAM/CAE, głównie na platformie Sun/Solaris).

Polityka bezpieczeństwa organizacji „na miarę”

Andrzej Adamczyk
ITTI Sp. z o. o.

Jakub Radziulis
Uniwersytet im. Adama Mickiewicza w Poznaniu

Rafał Renk
ITTI Sp. z o. o.

prof. Witold Hołubowicz
Uniwersytet im. Adama Mickiewicza w Poznaniu

Streszczenie:

Polityka bezpieczeństwa jest zbiorem założeń konstytuującym wszelkie działania na rzecz bezpieczeństwa prowadzone w ramach organizacji. Zbiór ten powinien zostać rzetelnie spisany, zaakceptowany przez naczelne kierownictwo, a następnie skutecznie wdrożony w życie. Opracowanie „Polityki Bezpieczeństwa” tak, aby mogła być faktycznie wdrożona i realizowała cele strategiczne instytucji nie jest trywialne. W niniejszym artykule przedstawiono autorską metodykę – wypracowaną w trakcie wielu projektów przez firmę ITTI – służącą do tworzenia „Polityki Bezpieczeństwa” na miarę konkretnej organizacji. Według metody ostateczne sformułowanie zapisów polityki jest zawsze poprzedzone skrupulatną analizą profilu instytucji, w której „Polityka Bezpieczeństwa” ma obowiązywać. O profilu decydują m.in. liczba pracowników, stopień komputeryzacji, współpraca z otoczeniem, rodzaje wykorzystywanych informacji i innych zasobów. Informacje te mają wymierny wpływ na cele „Polityki Bezpieczeństwa”. Konstrukcja dokumentu obejmuje m.in.:

  • definicję i strukturę przedmiotu ochrony,
  • klasyfikację elementów przedmiotu ochrony wraz z przypisanym poziomem ich istotności,
  • podstawowe zasady ochrony wraz z ich streszczeniem.

Na zakończenie artykułu zostaną omówione zalecenia odnośnie sposobu prowadzenia projektu, etapów pracy, metodyki pozyskiwania i przetwarzania informacji źródłowych.

Informacja o autorach:

JAKUB RADZIULIS jest absolwentem Akademii Techniczno-Rolniczej (ATR) w Bydgoszczy, którą ukończył w 2001 roku. W latach 2001 – 2003 był pracownikiem ITTI gdzie piastował stanowisko konsultanta. Od 2003 piastuje stanowisko asystenta na wydziale Fizyki UAM w Poznaniu w zakładzie Informatyki Stosowanej, pozostając jednocześnie w bliskiej współpracy z ITTI na stanowisku konsultanta. Na UAM Jakub Radziulis zajmuje się zagadnieniami dot. modelowania systemów informatycznych przy wykorzystaniu języka UML. Jako konsultant brał udział w projektach związanych z systemami informatycznymi, projektach telekomunikacyjnych związanych z sieciami IP oraz w projektach z zakresu bezpieczeństwa informacji. Projekty z zakresu bezpieczeństwa dotyczyły szerokiego spektrum aspektów m.in. audyt bezpieczeństwa, analiza i ocena ryzyka, opracowanie procedur bezpieczeństwa, polityka bezpieczeństwa, opracowanie metod szkolenia jak i samych szkoleń. Projekty o tematyce telekomunikacyjnej dotyczyły wdrażania nowych usług multimedialnych opartych o wykorzystanie technologii VoIP oraz jakości usług w sieci IP. Prace związane z systemami informatycznymi obejmowały m.in. aplikacje zdalnego nauczania w tym zagadnienia tworzenia, rozbudowy, przygotowania materiałów autorskich. Jakub Radziulis brał także udział w pracach dotyczących analizy procesów, systemów informatycznych i usług. Zainteresowania dotyczą zagadnień bezpieczeństwa systemów teleinformatycznych oraz systemów telekomunikacyjnych.

Andrzej Adamczyk, Rafał Renk, Witold Hołubowicz: por. referat: „Budowa Wirtualnego Przedsiębiorstwa w oparciu o istniejące standardy przepływu pracy”.

Neuronowy układ szyfrujący – analiza bezpieczeństwa

Piotr Kotlarz
Uniwersytet Kazimierza Wielkiego w Bydgoszczy

Streszczenie:

Wiele protokołów kryptograficznych takich jak SSL, IPSec, SCP, posiada zaimplementowanych kilka algorytmów kryptograficznych. Istotną przyczyną takiego rozwiązania jest ciągły postęp metod ataków na szyfry. Dobrym przykładem jest tutaj algorytm DES, którego słabości zostały udowodnione. Szyfr ten jest wykorzystywany w wielu współczesnych protokołach, jednak większość z nich ma zaimplementowanych kilka innych, dzięki czemu użytkownik może zrezygnować z wykorzystywania DES-a. Ostatnio pojawiły się prace na temat wykorzystania układów programowalnych do realizacji algorytmów kryptograficznych. Dla implementacji sprzętowych ma to szczególne znaczenie, ponieważ zmiana algorytmu realizowanego sprzętowo jest szczególnie kłopotliwa i kosztowna. My proponujemy jako alternatywę dla układów programowalnych, wykorzystanie sieci neuronowych do szyfrowania informacji. Ogólna koncepcja wykorzystania sieci neuronowej do realizacji funkcji szyfrującej została przez nas przedstawiona w naszych wcześniejszych pracach (również na Konferencji Ploug’05). Ta praca to rozważania dotyczące oceny bezpieczeństwa przebiegu procesu uczenia sieci neuronowej, czyli zmiany, na odległość, realizowanego szyfru przez sieć neuronową.

Informacja o autorze:

Piotr Kotlarz: por. referat „Jak wzrost mocy obliczeniowej i postęp w badaniach matematycznych zagraża współczesnym rozwiązaniom bezpieczeństwa informatycznego”.

Wymagania dotyczące bezpieczeństwa informacji i baz danych zawarte w obowiązujących w Polsce aktach prawnych

Jakub Radziulis
Uniwersytet im. Adama Mickiewicza w Poznaniu

Rafał Knapik
ITTI Sp. z o. o.

prof. Witold Hołubowicz
Uniwersytet im. Adama Mickiewicza w Poznaniu

Streszczenie:

Artykuł dokonuje analizy obowiązujących w Polsce aktów prawnych pod kątem zapisów dotyczących zabezpieczeń baz danych i informacji przechowywanych w tych bazach. Analiza jest przeprowadzona w celu określenia, na jakie przepisy prawa musi zwrócić uwagę administrator bazy danych w zależności od informacji jaka jest w niej przechowywana i charakterystyki organizacji, która wykorzystuje daną bazę (podmiot publiczny, czy podmiot prywatny). W ramach artykułu przedstawione zostały wymagania dotyczące bezpieczeństwa zawarte m.in. w ustawie o ochronie danych osobowych, ustawie o ochronie baz danych, ustawie o informatyzacji działalności podmiotów publicznych, ustawie o podpisie elektronicznym, ustawie o świadczeniu usług drogą elektroniczną, ustawie o ochronie informacji niejawnych, ustawie skarbowej, prawie telekomunikacyjnym oraz powiązanych z tymi ustawami rozporządzeniach. W artykule zwrócona została uwaga na aspekty związane z odpowiedzialnością właściciela bazy danych za informację w niej przechowywaną i przedstawione zostały sytuacje, w których jest on z tej odpowiedzialności zwolniony.

Informacja o autorach:

Jakub Radziulis: por. referat „Polityka bezpieczeństwa organizacji «na miarę»”.

Rafał Knapik, Witold Hołubowicz: por. referat: „Budowa Wirtualnego Przedsiębiorstwa w oparciu o istniejące standardy przepływu pracy”.

Business Intelligence w rozwiązaniach Oracle – koncepcja, kluczowe możliwości, korzyści, obszary zastosowania

Agnieszka Beresińska
Oracle Polska Sp. z o.o.

Streszczenie:

W wystąpieniu zostaną przedstawione aktualne trendy rynkowe i rozwiązania Oracle w zakresie Business Intelligence, ze szczególnym uwzględnieniem aplikacji analitycznych oraz zmian po przeprowadzonych akwizycjach. Omówione zostaną praktyczne metody wyboru konkretnego rozwiązania Oracle BI dla Klientów w zależności od ich sytuacji oraz specyficznych potrzeb. Na przykładach zostaną zaprezentowane wybrane możliwości rozwiązania Analytics Applications oraz Oracle Corporate Performance Management. Przykładowe wdrożenia, wybrane spośród bazy klientów Oracle Business Intelligence posłużą do dyskusji możliwości zastosowania tych rozwiązań w konkretnych obszarach działania oraz do analizy korzyści, jakie zastosowanie tych rozwiązań może przynieść organizacji.

Informacja o autorze:

W Oracle od 2005 jako Business Solution Manager pełni rolę Doradcy/Architekta Rozwiązań Biznesowych. Z wykształcenia ekonomista, z doświadczenia zawodowego doradca, menedżer, coach, wykładowca, konsultant i praktyk w zakresie zarządzania oraz wykorzystania nowoczesnych technologii informatycznych klasy ERP, CPM oraz Business Intelligence. Absolwent Szkoły Głównej Handlowej w Warszawie (1994), wykładowca SGH oraz innych uczelni wyższych w zakresie wykorzystania systemów informatycznych, rachunkowości, controllingu oraz zarządzania. Praktykę w sektorze konsultingu biznesowego i informatycznego zdobyła pracując w firmach SAP (1997-2002), Ster-Projekt S.A. (2002- 2004) oraz współpracując z wieloma firmami sektora (m.in. HP, Microsoft, IBM). Dyrektor Zarządzający Go2WIN Strategy Consulting. Autorka i współautorka wielu artykułów i referatów wygłoszonych na konferencjach oraz opracowań i ekspertyz dla biznesu oraz sektora publicznego. Główne obszary zainteresowań to strategia i zarządzanie organizacją, wykorzystanie informatycznych systemów wspomagających zarządzanie, zarządzanie projektami i systemy wspomagające realizację strategii w organizacji.

Analiza narzędzia Data Mining ORACLE 10g do klasyfikacji komórek nowotworowych w cytometrycznym systemie skaningowym

Ewelina Szydłowska, Włodzimierz Stanisławski
Politechnika Opolska, Wydział Elektrotechniki, Automatyki i Informatyki

Streszczenie:

Referat ma na celu przedstawienie wyników prowadzonych badań w zakresie zastosowania narzędzia Data Mining ORACLE 10g do klasyfikacji komórek nowotworowych w cytometrycznym systemie skaningowym. System ten umożliwia komputerową analizę interfaz barwionych w technice FISH (ang. Fluorescence In Situ Hybridization). Do klasyfikacji komórek wykorzystany jest zestaw 217 morfometrycznych cech zbioru komórek. W referacie zostaną zaprezentowane wyniki analiz uzyskane przy zastosowaniu algorytmów eksploracji danych z nauczycielem, w oparciu o zbiory treningowe. Celem badań jest projekt systemu automatycznej diagnostyki medycznej chorób nowotworowych w oparciu o narzędzia ORACLE.

Informacja o autorze:

mgr inż. Ewelina Szydłowska – Absolwentka Wydziału Elektrotechniki, Automatyki i Informatyki (2005). W grudniu 2005 rozpoczęła na macierzystej uczelni studia doktoranckie. Jej zainteresowania skupiają się wokół zastosowań systemów baz danych, a w szczególności analizy danych.

dr hab. inż. Włodzimierz Stanisławski – profesor Politechniki Opolskiej, kierownik Katedry Informatyki na Wydziale Elektrotechniki, Automatyki i Informatyki.

Automatyczna klasyfikacja instrumentów szarpanych w multimedialnych bazach danych

Krzysztof Tyburek Waldemar Cudny
Uniwersytet Kazimierza Wielkiego, Instytut Mechaniki Środowiska i Informatyki Stosowanej, Bydgoszcz
Polsko-Japońska Wyższa Szkoła Technik Komputerowych, Warszawa

Streszczenie:

W związku z tym, że większość dotychczasowych rozwiązań związanych z wydobywaniem danych multimedialnych bazuje na technice etykietowania przechowywanych informacji rozwiązanie to nie zawsze daje rzetelny wynik – tzn. wysyłane zapytanie nie zawsze jest zgodne z oczekiwaniami osoby (czy systemu) pytającej. Kolejny problem, który występuje w procesie rozpoznawania sygnałów dźwiękowych, to właściwa interpretacja źródła dźwięku. Rozpoznanie dźwięku pochodzącego np. z drgającej struny gitary może być bardzo trudne. Trudność ta najczęściej wynika z doskonałych procesorów muzycznych, za pomocą których z łatwością można „podrobić” oryginalny instrument. Drogą do rozwiązania problemu klasyfikacji i agregacji danych multimedialnych jest nowo powstały (posiadający certyfikat ISO) standard MPEG-7, który dostarcza szereg podstawowych deskryptorów opisujących dźwięk. Na bazie standardu MPEG 7 stworzono nowe deskryptory rozpoznające konkretne instrumenty muzyczne. Głównym zadaniem postawionym w badaniach jest takie zdefiniowanie deskryptorów, które w połączeniu z określonymi algorytmami przeszukiwań pozwolą na prawidłową interpretację źródła dźwięku zapisanego w formatach dźwiękowych i multimedialnych co pozwoli skutecznie filtrować multimedialne bazy danych. Do badań wybrano grupę strunowych instrumentów muzycznych, w których rolę źródła dźwięku pełnią drgające struny – nazywaną chordofony. Z tej klasy wyselekcjonowano instrumenty z dwóch podgrup: a) Instrumenty smyczkowe (uwzględniono tylko artykulację pizzicato); b) Instrumenty szarpane. Uwagę badawczą skupiono na takich instrumentach jak: wiolonczela, kontrabas, gitara akustyczna, gitara elektryczna, gitara basowa, harfa, altówka i skrzypce. Dźwięki muzyczne wykazują okresowość przed osiągnięciem 10% swej maksymalnej amplitudy, a co istotniejsze, etap narastania dźwięku jest jedną z najistotniejszych cech dystynktywnych, pozwalających słuchaczowi sklasyfikować instrument. Posługując się takimi podstawowymi metodami analizy dźwięków jak transformata Fouriera oraz analiza falowa można precyzyjnie określić skład widmowy analizowanej próbki. Przebiegi czasowe dźwięku analizowane są w oparciu o:

  1. transjent początkowy,
  2. stan quasi-ustalony,
  3. transjent końcowy.


Rys. 1. Przykład wykresu postaci czasowej dźwięku waltorni, a razkreślne (440Hz). Zacieniowano stan quasi-ustalony.

W przypadku analizy sygnałów pochodzących z grupy instrumentów szarpanych należy brać pod uwagę tylko transjent końcowy – stan quasi-ustalony w tym przypadku nie występuje, (co jest cechą charakterystyczną tych instrumentów).


Rys. 2. Przykład wykresu postaci czasowej dźwięku altówki, a razkreślne (440Hz).

W celu odszukania wektora cech badanych instrumentów zdecydowano się dokonać analizy zarówno postaci czasowej jak i widmowej badanych próbek.

Informacja o autorze:

Dr Waldemar Cudny jest pracownikiem naukowo-dydaktycznym w Instytucie Mechaniki Środowiska i Informatyki Stosowanej Akademii Bydgoskiej oraz współpracuje z Polsko-Japońską Wyższą Szkołą Komputerową w Warszawie. Specjalizuje się w analizie jedno- i dwuwymiarowych sygnałów cyfrowych. Mgr Krzysztof Tyburek jest pracownikiem naukowo-dydaktycznym w Instytucie Mechaniki Środowiska i Informatyki Stosowanej Akademii Bydgoskiej. Specjalizuje się w dziedzinach systemów baz danych oraz ich zastosowaniach, programowaniu i językach programowania, DSP i multimediach.

Aspekty narzędziowe w projekcie systemu do analizowania naruszeń prawa

Czesław Jędrzejek, Jarosław Bąk, Jolanta Cybulka, Jacek Martinek
Centrum Doskonałości w dziedzinie Telematyki, Instytut Automatyki i Inżynierii Informatycznej, Politechnika Poznańska

Streszczenie:

Artykuł omawia aspekty narzędziowe w projektowanym Systemie Analizatora Faktów i Związków (AFIZ), który jest pomyślany jako wsparcie w dochodzeniach kryminalnych. System winien umożliwiać automatyczną analizę faktów i odkrywanie nowych powiązań pomiędzy nimi. Wspomagana analiza materiału dowodowego ma szczególne znaczenie przy postępowaniach wykorzystujących dane informatyczne. Ze względu na ich ogromną ilość oraz często trudno czytelną formę, wspomagana komputerowo analiza danych jest niezbędna do efektywnego wykorzystania tego typu danych w postępowaniu dowodowym. Projektowany system będzie wspomagać wykrywanie naruszeń prawa oraz nadzorować i ewidencjonować gromadzenie materiałów dowodowych. System będzie uwzględniał struktury danych i formy reprezentacji wykorzystywane przez systemy, stosowane aktualnie w polskiej policji, przy znacznym rozszerzeniu i częściowym zautomatyzowaniu procesów analizy informacji pod kątem wykrywania naruszeń prawa. W projekcie zajmiemy się zagadnieniem importu informacji z różnych baz danych, zawierających informacje o osobach (w szczególności o osobach, które naruszyły prawo), o grupach przestępczych, instytucjach, pojazdach lub innych przedmiotach, a także o zdarzeniach lub przebiegach zdarzeń, wiążących się z naruszeniami prawa. Opracujemy jednolitą ontologię dla informacji zawartych w tych bazach danych, oraz opracujemy szablony importu danych do projektowanego systemu. W artykule podamy przykład konstruowania ontologii dla fragmentu dziedziny. Dane w systemie będą magazynowane w semantycznych bazach danych. (format RDF). W artykule, w odniesieniu do omawianego projektu, przeanalizujemy stosowalność wymagań rekomendacji W3C z bieżącego roku, zwłaszcza SPARQL Query Language for RDF, oraz RDF/OWL Representation of WordNet.

Oracle Reports 9i/10g – raportowanie w Internecie

Jarosław Gramacki, Artur Gramacki
Instytut Informatyki i Elektroniki, Uniwersytet Zielonogórski

Streszczenie:

W artykule omówiono najnowszą wersję narzędzi wspierających tworzenie aplikacji raportujących w środowisku Oracle Developer. Począwszy od wersji 9i (która stosunkowo szybko została zastąpiona wersją 10g) w praktyce zrezygnowano z uruchamiania raportów w środowisku tzw. runtime-u na rzecz uruchamiania ich wyłącznie z poziomu przeglądarki internetowej Przy tworzeniu raportów można wykorzystywać dwa różne podejścia. W pierwszym z nich tworzone są tzw. raporty papierowe (ang. Paper Layout) w znanym od wersji Oracle Reports 6i środowisku projektowym Reports Builder a istotnym novum jest to, że mogą być one uruchamiane w architekturze trójwarstwowej OC4J poprzez przeglądarkę. W drugim podejściu, budując raport, korzysta się wyłącznie z ogólnie znanych technologii internetowych (Java, JSP, XML, Web Services, etc.). Technologie te same w sobie nie są w żaden sposób związane ze wspominanym wcześniej środowiskiem projektowym, choć w pewnym stopniu są przez to środowisko wspierane; mówimy wówczas, o tzw. raportach webowych (ang. Web Layout). W pracy pokazano w jaki sposób efektywnie tworzyć nowoczesne raporty internetowe korzystając przy tym, tam gdzie jest to uzasadnione, z ciągle dostępnego w systemie potencjału projektowego rodem z Oracle Reports 6i. Nie chodzi tu jednak o (teoretycznie) prosty proces migracji raportów z wcześniejszych wersji, ale o zupełnie nowe podejście do problemu budowy aplikacji raportujących lansowane od dłuższego czasu przez firmę Oracle.

Informacja o autorach

dr inż. Jarosław Gramacki, dr inż. Artur Gramacki: por. referat „Oracle Secure Enterprise Search – omówienie oraz ocena praktycznej przydatności”.

Implementacja indeksów dla analizy wyników eksploracji danych w Oracle 10g

Witold Andrzejewski
Instytut Informatyki, Politechnika Poznańska

Streszczenie:

Olbrzymie bazy danych dotyczących sprzedaży produktów w supermarketach są zbyt duże, by można na nich przeprowadzić „ręczną” analizę. Odpowiedzią na ten problem jest użycie algorytmów eksploracji danych, czyli tzw. „analizy koszyka sklepowego”, do automatycznej analizy danych w celu otrzymania użytecznej wiedzy. W wyniku takiej analizy (w zależności od parametrów algorytmów) można otrzymać olbrzymią liczbę wzorców, takich jak: zbiory częste, reguły asocjacyjne albo wzorce sekwencji. Wśród tych wzorców znajduje się wiele zależności, które są przypadkowe, nieciekawe, bądź już znane. Zadaniem człowieka jest odnalezienie wśród wyników eksploracji danych wzorców ciekawych i o praktycznym zastosowaniu. Taka analiza wymaga wykonania wielu zapytań do danych o złożonych typach, które są słabo wspierane przez komercyjne systemy zarządzania bazą danych. Rozwiązanie tego problemu jest możliwe w Oracle 10g, dzięki mechanizmowi data cartridges pozwalającemu na rozszerzanie funkcjonalności serwera Oracle. Pozwala on na implementację własnych indeksów wspierających różne typy zapytań na danych o złożonych typach. W niniejszej publikacji przedstawiono rozwiązania pozwalające na indeksowanie złożonych typów danych charakterystycznych dla analizy koszyka sklepowego, oraz sposób ich implementacji przy wykorzystaniu machizmu data cartridges.

Informacja o autorze:

Mgr inż. Witold Andrzejewski pracuje jako asystent na Wydziale Informatyki i Zarządzania Politechniki Poznańskiej. Jego zainteresowania naukowe obejmują eksplorację danych oraz indeksowanie złożonych typów danych. Jest twórcą wielu aplikacji do analizy i korekcji danych eksperymentalnych stosowanych na Wydziale Technologii Chemicznej Politechniki Poznańskiej oraz współtwórcą systemu do rejestracji przez Internet kandydatów na studia „Ksantypa” wykorzystywanego obecnie przez dziekanat Wydziału Informatyki i Zarządzania Politechniki Poznańskiej. Prowadzi działalność dydaktyczną w zakresie programowania obiektowego, baz danych, multimedialnych i obiektowych baz danych oraz grafiki komputerowej.

Rozproszona replikacja danych z wykorzystaniem Oracle Streams

Maciej Zakrzewicz
PLOUG, Politechnika Poznańska

Streszczenie:

Realizacja wielu typów zaawansowanych systemów baz danych wymaga rozpraszania i replikowania danych. Najczęściej powodem takich działań jest zapotrzebowanie na niezawodność lub skalowalność systemów. Jedną z technologii, które umożliwiają implementację złożonych mechanizmów rozproszonej replikacji danych jest Oracle Streams 10g. Oracle Streams 10g umożliwia m.in. przechwytywanie operacji wykonywanych przez użytkowników w systemie bazy danych, ich przesyłanie do zdalnych węzłów, a następnie aplikowanie w docelowych systemach baz danych. Celem referatu jest przedstawienie praktycznych zastosowań funkcjonalności Oracle Streams 10g.

Informacja o autorze:

Pracownik Instytutu Informatyki Politechniki Poznańskiej oraz prezes Zarządu Stowarzyszenia Polskiej Grupy Użytkowników Systemu Oracle. Zainteresowania naukowe obejmują eksplorację danych (data mining), systemy baz danych/hurtowni danych oraz technologie internetowe. Dla krajowych i zagranicznych uniwersytetów oraz przedsiębiorstw (m.in. Niemcy, Wielka Brytania, USA, Słowacja, Słowenia) prowadzi wykłady i szkolenia z zakresu projektowania i implementacji systemów informatycznych. Kieruje i doradza w projektach informatycznych realizowanych w architekturach internetowych. Autor ponad stu publikacji z zakresu odkrywania zbiorów częstych, przetwarzania zapytań eksploracyjnych, adaptatywnych serwerów WWW, technik indeksowania baz danych, strojenia systemów baz danych, standardów Java dla baz danych i dla aplikacji wielowarstwowych. Współtwórca serii konferencji i seminariów PLOUG, służących transferowi wiedzy i technologii wśród krajowych przedsiębiorstw informatycznych.