Opisy referatów

An Overview of J2EE Application Development with Oracle JDeveloper 10G

Keith Bremer
Oracle Corporation, UK

J2EE has proven itself as a robust and scalable platform for
business application development and deployment. While the benefits of standards
and portability are clear, the complexity of Java programming and the lack of
rapid application development tools can present a barrier to it’s adoption.
Recognizing these difficulties, Oracle, with Oracle Developer 10G, has been
working to simplify the whole end-to-end process of J2EE application development,
the aim being to make the building of J2EE applications less about writing 3GL
Java code, and more about solving business problems in a visual and declarative
manner. This presentation takes you through the latest developments in
JDeveloper that are turning this vision into a reality and shows you how Oracle
are addressing the emerging standards
in this maturing field.

Informacja o autorze:

Keith began his IT career in the 1960’s writing FORTRAN
programs for a British aerospace company. He moved through various roles
including analysis, design and systems programming with a number of companies
then joined DEC (Digital Equipment Corporation) as an instructor teaching PDP-11
and VAX-11 systems courses in 1980.
Keith has worked for Oracle Corporation in the UK since 1988, starting as an
instructor teaching a variety of courses from SQL to Database Administration. He
moved to curriculum development in the Designer team in 1995 and is now
responsible for training on Oracle Software Configuration Manager.


Grid Computing: wprowadzenie do przetwarzania danych

Maciej Zakrzewicz
Politechnika Poznańska)

Przetwarzanie siatkowe (grid computing) jest nowoczesną
koncepcją wykorzystania rozproszonych zasobów komputerowych jako logicznej
jednostki przetwarzania danych. Od niedawna pojawiają się na rynku coraz
liczniejsze propozycje rozwiązań systemowych opartych na tej idei. Celem
niniejszego artykułu jest omówienie podstaw Grid Computing, przedstawienie
kierunków standaryzacji oraz charakterystyka jego zastosowań w dziedzinie
systemów baz danych, w szczególności na tle funkcjonalności systemu zarządzania
bazą danych Oracle10G.

Informacja o autorze:

dr inż. Maciej Zakrzewicz jest pracownikiem naukowym
Instytutu Informatyki Politechniki Poznańskiej, prezesem Stowarzyszenia
Polskiej Grupy Użytkowników Systemu Oracle. Specjalista w dziedzinach systemów
baz/hurtowni danych, eksploracji danych oraz rozwiązań internetowych. Dla
krajowych i zagranicznych (RFN, Wielka Brytania, USA) uczelni i przedsiębiorstw
prowadzi wykłady z zakresu projektowania i budowy systemów informatycznych.


Nowe własności serwera bazy danych Oracle10G

Marek Martofel
Oracle Polska

Tak więc kolejny raz korporacja Oracle zaskakuje rynek nowinkami wprowadzonymi w najnowszej wersji swego sztandarowego produktu, czyli relacyjnej bazy danych. Od chwili obecnej to Oracle 10g będzie szeroko omawiany na seminariach i prezentowany użytkownikom, zarówno tym, których przychylność technologia Oracle zaskarbiła sobie już lata temu jak i tym którzy dopiero w chwili obecnej wybierają technologie rozwiązań biznesowych. Osobiście wiele czasu spędziłem nad pracami związanymi z Oracle Parallel Serwer i Oracle Real Application Cluster, tak więc w moim pojęciu musiał nadejść dzień w którym idea Grid Computing zaistnieje w swym dojrzałym, produkcyjnym i wspieranym technologicznie wydaniu. Powstanie 10g i pierwszoplanowa rola tegoż właśnie G (jak grid) jest następstwem rozwoju wspomnianej opcji (czyli na dzień dzisiejszy RAC).

Jednak nowości jakie znajdziecie Państwo w 10g nie ograniczają się wyłącznie to tej szeroko nagłośnionej funkcjonalności, jest ich o wiele więcej.

Wiele stało się również w zarządzaniu operacjami wejścia-wyjścia co bezpośrednio wpływa na wzrost wydajności przetwarzania, aczkolwiek nie jest to widoczne dla użytkownika, czy administratora. Wiele zmieniło się również w zarządzaniu pamięciami masowymi, sama baza ‚nauczyła się’ zarządzać zasobami dyskowymi. Również twórcy aplikacji dostali nowe narzędzie, a jest nim HTML DB. Każdy z tematów jaki można powiązać z działalnością relacyjnej bazy danych zyskał nowe funkcje i usprawnienia, wiele stało się w dziedzinie samostrojenia łatwej administracji, czy choćby instalacji. Każdy z tematów mógłby z powodzeniem zająć obszerną prezentację co z pewnością stanie się w nadchodzących miesiącach. Do dyspozycji uczestników warsztatów PLOUG i sympatyków Oracle pozostawiam dokument, od którego zazwyczaj zaczynam wertowanie dokumentacji, czyli:

Oracle10i Database New Features Release 1

Życzę miłej lektury pomimo że ostatnie słowo co do nowych właściwości nie zostało jeszcze powiedziane, zauważcie choćby że dokumentacja mówi o 10i .

Pozdrawiam i do zobaczenia w Kościelisku, Marek.


Hurtownie danych – współczesność

Beata Bawor
Altkom

Dzisiejsze potrzeby zarządzania zaspokaja technologia
wielowymiarowej struktury danych, której celem jest dostarczanie właściwych
informacji właściwym ludziom, we właściwym czasie a jednocześnie przy
niskim koszcie.
Dzięki tej technologii można budować aplikacje, dzięki którym możliwa będzie
analiza wszystkich obszarów działalności przedsiębiorstwa – finansów,
sprzedaży, klientów, marketingu, dystrybucji, itd. Pozwoli to nie tylko
skutecznie mierzyć biznes, ale również optymalnie go planować.
Najlepszym rozwiązaniem problemów braku właściwych informacji jest
utworzenie korporacyjnej hurtowni danych, w której gromadzone dane pochodzą z
wszystkich systemów transakcyjnych firmy. Jest to jednak proces bardzo złożony,
przez co wzrasta ryzyko niepowodzenia przedsięwzięcia. Dodatkowy minus stanowi
fakt, że jest to rozwiązanie bardzo drogie i czasochłonne. Alternatywą jest
utworzenie sytemu sprawozdawczego opartego o wielowymiarowe struktury danych
tzw. Data Marts, poświęcone wybranym zagadnieniom tematycznym przedsiębiorstwa.
Najważniejszymi cechami takiego sytemu jest: intuicyjność utworzonego modelu,
proste tworzenie raportów i zapytań „ad-hoc”. Dodatkową zaletą
takiego rozwiązania jest krótki czas wdrożenia i szybkie rezultaty, dzięki
czemu użytkownicy końcowi uzyskują dostęp do systemu umożliwiającego
raportowanie i analizę wybranych obszarów biznesowych.


Zintegrowany system raportowania firmy – Czy to się opłaca?

Jan Baranowski
Thomson multimedia Polska

W referacie przedstawiony zostanie zintegrowany system
raportowania wdrożony w Thomson multimedia Polska. Pokazane zostaną wymagania
funkcjonalne, zastosowane rozwiązania oraz aspekty ekonomiczne wdrożenia
takiego systemu. Referat uzupełniony będzie pokazem funkcjonowania systemu
raportowania.


Realizacja projektów w warunkach rozmytego identyfikowania ryzyka
-bezpieczeństwo dotrzymania terminu i założonego budżetu

Kazimierz Frączkowski
Prokom Software,
Tomasz Mechliński

Referat dotyczy dokuczliwej dysproporcji pomiędzy narzędziami
wsparcia procesu zarządzania projektami informatycznymi, a technologią
wytwarzania komponentów i produktów realizowanych w ramach projektów
informatycznych. Omówione zostaną strategie obejmujące problematykę praktyki
stosowanej przy budowie projektów, szczególnie o dużej skali niepewności.
Coraz doskonalsze narzędzia informatyczne, sprzęt komputerowy, technologie,
nie mają przełożenia (brak korelacji) na bezpieczeństwo kończenia projektów
w wyznaczonych ramach czasowych i budżetowych. Rosnąca złożoność przedsięwzięć
informatycznych angażuje coraz większe zespoły ludzi do ich realizacji, zaś
estymacje czasowe dotyczące poszczególnych zadań projektu opierają się na
wiedzy wielu ekspertów. Ich opinia ma decydujący wpływ na sukces całego
przedsięwzięcia. Rozbieżności w szacowaniu tego samego parametru przez wiele
osób, obarczone jest niepewnością, która zwiększa ryzyko przekroczenia
narzuconych na projekt ograniczeń. Dotychczas stosowane metody sieciowe w
planowaniu projektów nie uwzględniają zjawiska niepewności oraz korelacji
pomiędzy czasem realizacji projektu, a strukturą przydziału zasobów.
Konieczne jest wykształcenie skutecznego modelu zarządzania zasobami oraz
formalnego ujęcia niepewności związanej z szacowaniem czasu czy budżetu
projektu.
Autorzy zaproponowali rozszerzenie funkcjonalności popularnego produktu do
wspomagania zarządzania projektami MS Projekt 2000 o funkcje, które pozwalają
wykorzystać ten program w przypadku realizacji projektów, w których angażowane
zasoby jak również wymagane produkty są szacowane w warunkach niepewności.
Zaimplementowana metodyka pozwala na zwiększanie pewności zakończenia
projektu sukcesem.

Informacja o autorach:

dr inż. Kazimierz Frączkowski jest zatrudniony w Prokom Software S.A, gdzie kieruje zespołem
analityków na stanowisku Project Manager Prokom Medical, mając na co dzień
do czynienia z realizacją projektów dla sektora medycznego. W swoim
dorobku ma wieloletnie doświadczenie w zakresie kierowania projektami
informatycznymi dla sektora medycznego w tym finansowanych ze środków Banku
Światowego. Dorobek publikatorski obejmuje ponad 90 prac głównie nt.
systemów wspomagania diagnostyki medycznej oraz informatycznych systemów
zarządzania dla służby zdrowia.

mgr inż. Tomasz Mechliński jest absolwentem 2003
Wydziału Informatyki i Zarządzania Politechniki Wrocławskiej na kierunku
Informatyka. Ponadto od trzech lat pracuje w firmie sektora IT, gdzie
uczestniczy w realizacji projektów dla banków i domów maklerskich, ostatnio również
przy budowie portalu WWW dla rynku świadczeń zdrowotnych.


XML – stan obecny i trendy rozwojowe

Tomasz Traczyk
Politechnika Warszawska

Od kilku lat XML jest jedną z najbardziej popularnych
technologii informatycznych, stosowaną szeroko m.in. dzięki swojej prostocie i
dostępności narzędzi, a przede wszystkim dzięki dobrej standaryzacji. Niektóre
związane z XML standardy (np. XPath, XSLT) są znane i szeroko stosowane, inne
(np. XLink, XSL-FO) jeszcze nie zdobyły oczekiwanej popularności. Wciąż też
trwają prace nad kolejnymi standardami z „rodziny” XML, a istniejące
standardy są udoskonalane.
Pierwsza część referatu przypomni podstawowe fakty związane z językiem XML,
rolę poszczególnych standardów XML-owych oraz podsumuje obecne osiągnięcia
w dziedzinie ich implementacji. Krótko omówione zostaną typowe zastosowania
XML. W drugiej części referatu zaprezentowane będą najnowsze prace związane
z rozwojem „rodziny” XML. Polegają one zarówno na udoskonalaniu i
dopracowywaniu istniejących standardów (np. XPath, XPointer, XSLT), jak i na
opracowywaniu nowych (np. XML Encryption, XML Signature, XForms).

Informacja o autorze:

Dr inż. Tomasz Traczyk jest adiunktem w Instytucie
Automatyki i Informatyki Stosowanej Politechniki Warszawskiej.


Oracle XML DB

Jarosław Stakuń
Oracle Polska

Uczestnicy zostaną zapoznani z rozwiązaniami
technologicznymi wchodzącymi w skład pakietu Oracle XML DB takimi jak: XMLType
– wewnętrzny typ serwera baz danych Oracle umożliwiający przechowywanie
w tabelach relacyjnych dokumentów XML, zastosowanie XPath, wsparcie dla
standardu XML Schema, przeszukiwanie dokumentów XML w bazie danych, interfejsy
programistyczne do obsługi XML DB oraz repozytorium dokumentów XML.

Informacja o autorze:

Jarosław Stakuń pracuje jako konsultant sprzedaży w firmie
Oracle Polska. Studiował Informatykę na Uniwersytecie Wrocławskim. Wcześniej
pracował jako projektant-programista przy realizacji różnych systemów
internetowych. Obecnie zajmuje się zagadnieniami związanymi z programowaniem (Java,
PL/SQL) w środowisku Oracle.


Capacity Planning dla baz danych Oracle

Beata Deptuła, Marcin Przepiórowski,
Marcin Kwaśniński, Paweł Chomicz
Altkom

Proces Capacity Planning (CP) to przewidywanie obciążeń
środowiska zachodzących pod wpływem zmian wymagań biznesowych. Zmiany
biznesowe mogą być związane ze zjawiskami takimi jak:

  • zmiany w implementacji aplikacji, np. dodanie nowej
    funkcjonalności,
  • duże zmiany rozmiarów bazy danych, np. połączenie dwóch
    firm,
  • zmiana charakteru obciążenia bazy danych.

Celem procesu CP jest udzielenie odpowiedzi na pytanie: czy
po zmianach biznesowych nasze środowisko dalej będzie spełniało założone
wymagania pod kątem czasu odpowiedzi lub innych parametrów. Jeżeli wymagania
nie będą spełnione, należy dokonać analizy pozwalającej stwierdzić,
jakich zmian należy dokonać w środowisku aby wymagania zostały spełnione.
W zależności od wymaganej dokładności prognoz i analiz, proces CP jest
bardzo zmienny. Większa dokładność wiąże się z dłuższym czasem analizy,
a więc i z większymi kosztami. Z kolei analizy o niskiej dokładności (z dużym
błędem) nie zawsze dadzą poprawną odpowiedź na zadawane pytania.
Proces modelowania wzrostu systemów komputerowych powiązany jest z opisaniem
zachowania się systemu informatycznego od strony użytkownika końcowego.
Zmiana warunków pracy widziana od strony użytkownika końcowego, spowodowana
jest zmianą warunków pracy systemu informatycznego. Powiązanie zaś tych dwóch
punktów widzenia daje możliwość przewidywania wzrostu systemu
informatycznego oraz określenie, czy dany system informatyczny będzie dalej
spełniał wymagania klienta.


Badanie wydajności Oracle 9i w kontekście modelu obiektowego

Bartłomiej Jabłoński
Uniwersytet Łódzki

Model obiektowo-relacyjny danych pojawił się już w wersji
Oracle 8i. Ze względu na małe możliwości nie był szeroko stosowany w
aplikacjach. Wersja Oracle 9i zawiera wiele nowych rozszerzeń i rozwiązań,
które pozwalają na poważne rozważenie ich użycia w aplikacjach przemysłowych.
Pozostają tylko pytania: Jak wspomniana „nakładka” obiektowości
wpływa na wydajność? Czy zamodelowanie wymagań użytkownika z wykorzystaniem
obiektowych możliwości serwera bazy danych przyspieszy dostęp do danych, czy
wręcz przeciwnie, spowoduje, że dane będą trudniej osiągalne? Jaki jest
ostateczny zysk użytkownika końcowego w zastosowaniu nowoczesnej
technologii implementacji obiektowej struktury danych?
Autor przeprowadził analizę porównawczą modelu relacyjnego i obiektowego
kilku typowych sytuacji w programowaniu bazy danych Oracle 9i. W
referacie znajdują się wyniki badań wydajności oraz omówienie kilku technik
strojenia modelu obiektowego.

Informacja o autorze:

Bartłomiej Jabłoński od 1999 roku pracuje na stanowisku
asystenta na Wydziale Matematyki Uniwersytetu Łódzkiego, gdzie zajmuje się głównie
bazami danych Oracle oraz standardem XML, ze szczególnym uwzględnieniem
jego zastosowań w bazach danych. Od 1994 roku wielokrotnie uczestniczył w
projektach informatycznych związanych z bazami danych Oracle jako konsultant.
Od 1995 prowadzi szkolenia w Centrum Edukacyjnym Oracle Polska. Jest
autorem trzech i tłumaczem czterech książek z zakresu informatyki.


Koncepcja automatycznego tworzenia modułu auditingu w aplikacjach użytkowych

Artur Gramacki
Uniwersytet Zielonogórski

Tworząc aplikację bazodanową (zwłaszcza taką, która
jest używana przez dużą liczbę użytkowników) należy zadbać o to, aby
stworzyć również mechanizmy umożliwiające w miarę wszechstronne
kontrolowanie i rejestrowanie tego, co dzieje się z gromadzonymi danymi (ang.
audit
). Chodzi o rejestrowanie wszelkich wykonywanych operacji DML (czyli w
praktyce głównie wstawianie, modyfikowanie i kasowanie wierszy w tabelach)
oraz DDL (np. tworzenie nowych obiektów).
Wykorzystywanie do tego celu istniejącego w bazie danych Oracle systemowego
mechanizmu auditingu jest niewskazane, gdyż powinien on być używany w
zasadzie tylko do doraźnego monitorowania stanu bazy danych w przypadkach
awaryjnych, np. poszukiwania przez administratora przyczyn niewłaściwego
zachowywania się systemu. Używanie go wymaga ponadto posiadania uprawnienia
AUDIT SYSTEM, które zwykle nie powinno być przyznawane nikomu innemu prócz
administratorowi bazy.
Moduł auditingu w aplikacjach użytkowych wykorzystuje odpowiednio
skonstruowane wyzwalacze bazodanowe, za pomocą których rejestrowane są
wszelkie operacje wykonywane na obiektach kontrolowanego schematu. Nie jest
wymagane przy tym posiadanie uprawnień DBA – wystarczą uprawnienia właściciela
schematu. Ponieważ słownik bazy danych (ang. database dictionary)
zawiera komplet informacji o wszystkich obiektach schematu, przeto możliwe jest
stworzenie systemu, który automatycznie (a w praktyce prawie automatycznie)
budowałby taki moduł niezależnie od złożoności danego schematu. System
taki składa się z odpowiednio skonstruowanych skryptów SQL*Plus-a oraz pakietów
PL/SQL. Referat pokazuje, jak taki system stworzyć i jak go używać w
praktyce.

Informacja o autorze:

dr inż. Artur Gramacki – jest pracownikiem naukowym w
Instytucie Informatyki i Elektroniki Uniwersytetu Zielonogórskiego. Zajmuje się
projektowaniem, wykonywaniem oraz wdrażaniem aplikacji bazodanowych usprawniających
szeroko rozumiane zarządzanie Uczelnią. Od wielu lat prowadzi również zajęcia
dydaktyczne dotyczące projektowania baz danych, działania i administrowania
systemami zarządzania bazami danych oraz wykorzystania technologii Oracle w
budowie aplikacji użytkowych.


MPEG-7

Władysław Skarbek
Politechnika Warszawska

W ramach wykładu omówiono podstawowe cechy standardu
MPEG-7. Scharakteryzowano również aplikacje oparte na tym standardzie. Dzięki
wykorzystaniu standardu MPEG-7 i występującej w nim uniwersalnej postaci języka
opisu zawartości multimedialnej już wkrótce będzie możliwe tworzenie
rozproszonych archiwów materiałów cyfrowych, a także dostęp do nich przez
Internet.


Oracle interMedia na tle standardu SQL/MM i prototypowych systemów
multimedialnych baz danych

Marek Wojciechowski
Politechnika Poznańska

Przetwarzanie danych multimedialnych od lat było przedmiotem
wielu projektów badawczych i tematem prac naukowych. Obecnie jesteśmy świadkami
kształtowania się standardu SQL/MM, który w dużej części poświęcony jest
obsłudze danych multimedialnych z poziomu języka SQL. Obsługą obrazów, dźwięku,
sekwencji wideo i heterogenicznych danych multimedialnych w ramach systemu zarządzania
bazą danych Oracle9i zajmuje się Oracle interMedia. Celem niniejszego artykułu
jest ocena możliwości oferowanych przez Oracle interMedia w świetle
specyfikacji SQL/MM i funkcjonalności prototypów badawczych.

Informacja o prowadzącym:

dr inż. Marek Wojciechowski – pracownik naukowo-dydaktyczny
Instytutu Informatyki Politechniki Poznańskiej. Specjalizuje się w dziedzinach
systemów baz danych, eksploracji danych oraz technologii internetowych.


Change Manager – kompleksowe zarządzanie zmianami w bazach danych

Paweł Pilarczyk, Marcin Socha
CompFort Meridian Polska

Jedyną rzeczą, która jest stale obecna w dzisiejszym środowisku
złożonych baz danych są zmiany. Internet nakłada nowe wymagania w zakresie
dostępności do danych, częstości i szybkości wprowadzania zmian w
aplikacjach. Coraz częściej zdarza się, że organizacje IT miewają problemy
w znalezieniu zasobów potrzebnych do wsparcia przy wdrażaniu aplikacji i ich późniejszych
zmian.
Change Manager firmy BMC Software stanowi skalowalne i inteligentne rozwiązanie,
zapewniające możliwość uproszczenia zarządzania zmianami w heterogenicznym
środowisku baz danych oraz w pełni zaspokajające następujące potrzeby:

  • uproszczenie i automatyzacja procesu jednoczesnego
    wprowadzania zmian do wielu, czasami różnych systemów RDBMS,
  • skuteczna ochrona przed utratą danych,
  • zapewnienie niezbędnej dostępności do danych oraz
    wysokiej jakości procesu wprowadzania zmian,
  • utrzymywanie integralności i spójności wersji
    bazodanowych komponentów aplikacji.

Podstawowe funkcje:

  • Umożliwienie implementacji złożonych zmian w
    strukturach baz danych z użyciem spójnego, niezawodnego systemu, zapewniającego
    pełną kontrolę.
  • Dostarczenie wspólnego interfejsu dla różnych środowisk
    RDBMS.
  • Umożliwienie aplikowania zmian w strukturach danych, które
    mogą być definiowane przy pomocy zewnętrznych narzędzi do modelowania
    procesów i danych.
  • Eliminacja błędów i kosztownej pracy naprawczej dzięki
    możliwości dokonywania dogłębnych analiz wpływu projektowanych zmian,
    zanim zostaną one fizycznie wykonane.
  • Możliwość łatwego importu gotowego kodu DDL, co
    skutkuje zwiększeniem dostępności aplikacji produkcyjnej i skróceniem
    czasu potrzebnego na wprowadzenie zmian.

Podczas wykładu zostanie przedstawiona architektura rozwiązania
oraz działający produkt Change Manager na bazie danych Oracle. Zostanie
zaprezentowana jego funkcjonalność w zakresie zarządzania zmianami w
strukturach obiektów bazodanowych.


Quest Central for Oracle – tuning bazy danych

Paweł Żuchowski
TETA SA

Prezentacja będzie skupiała się na problematyce tuningu
bazy danych. Przedstawiona zostanie metodologia tuningu oraz poszczególne
kroki, które powinny zostać wykonane przez administratora w celu optymalizacji
bazy danych Oracle. Pokazane zostanie wykorzystanie poszczególnych modułów
narzędzia Quest Central for Oracle (Spotlight on Oracle, SQLab Vision, Space
Manager, Instance Xpert) do optymalizacji bazy danych. Omówione zostaną
zastosowania w/w narzędzi do monitorowania i diagnostyki obciążenia serwera,
wykrywania i optymalizacji zapytań najsilniej obciążających serwer oraz zarządzania
i optymalizacji fizycznej struktury bazy danych.

Informacja o prowadzącym:

Paweł Żuchowski jest Product Managerem w firmie TETA S.A. w
której pracuje od 1997 r. Swoją ścieżkę zawodową rozpoczynał jako
administrator Novell i Microsoft. Od 1998 związał się z bazami danych Oracle.
Pracując jako kierownik działu administratorów baz danych, w roku 2000 uzyskał
tytuł MCSE oraz OCP. Paweł Żuchowski ukończył Uniwersytet Wrocławski,
uzyskując tytuł magistra na wydziale Informatyki. Wiedzę swoją pogłębiał
dalej na licznych kursach w kraju i zagranicą.


Embarcadero – zarządzanie bazami Oracle

Marcin Zawadzki
DCS Computer Consultants
Group Sp. z o.o.

Zarządzanie rosnącą liczbą serwerów bazodanowych Oracle,
zarządzanie zmianami zachodzącymi w środowisku bazodanowym oraz bezpieczeństwem
danych – to wyzwania przed którymi stają administratorzy baz danych. Z
pomocą przychodzi firma Embarcadero oferująca narzędzia, które znacząco
usprawniają proces projektowania, modelowania, implementacji oraz optymalizacji
i administracji baz danych. Podczas prezentacji przedstawione zostaną aplikacje
DBArtisan, Change Manager, Rapid SQL, Performance Center, SQL Tuner oraz
ER/Studio ze szczególnym uwzględnieniem sposobu, w jaki rozszerzają one
mechanizmy zarządzania wbudowane w RDBMS Oracle.

Informacja o autorze:

Marcin Zawadzki jest absolwentem wydziału Elektroniki i
Technik Informacyjnych Politechniki Warszawskiej, stypendystą Fundacji im. Kołakowskich
oraz autorem licznych publikacji w prasie informatycznej. Obecnie pracuje jako
inżynier systemowy w firmie DCS Computer Consultants Group Sp. z o.o.


System informacji edukacyjnej regionu kujawsko-pomorskiego

dr inż. Izabela Rojek-Mikołajczak,
mgr Krzysztof Tyburek
Akademia Bydgoska,
Instytut Mechaniki Środowiska
i Informatyki Stosowanej

Celem referatu jest przedstawienie koncepcji systemu
informacji edukacyjnej regionu kujawsko-pomorskiego jako systemu
informatycznego.
W systemie zostanie zawarta kompleksowa informacja nt. szkolnictwa wyższego,
studiów podyplomowych, kursów w sektorze szkolnictwa publicznego i prywatnego
na potrzeby społeczeństwa regionu kujawsko-pomorskiego.
Omówiona zostanie koncepcja systemu informacji edukacyjnej w oparciu o metodykę
Oracle CASE, w szczególności etapy: strategii, analizy i projektowania.
Na etapie strategii opisany zostanie ogólny model systemu, wymagania,
harmonogram prac, ograniczenia techniczne oraz modele: procesów (PD), danych (ERD),
funkcji (FHD) oraz przepływów (DFD).
Na etapie analizy nastąpi uzupełnienie informacji zebranych na etapie
strategii oraz uszczegółowienie modeli.
Na etapie projektowania zostaną zaprojektowane modele danych, struktura
logiczna i fizyczna bazy danych oraz modele aplikacji (formularzy, raportów,
itp.).
Na wszystkich etapach zostanie wykorzystane narzędzie CASE firmy Oracle.


Przyszłość i ograniczenia usług sieciowych

prof. Czesław Jędrzejek
Instytut Technik Telekomunikacyjnych
i Informatycznych

Usługi sieciowe są jednym z najpopularniejszych obecnie
trendów w informatyce. Ich niezaprzeczalnymi zaletami są:

  • Standaryzacja: dostępu, profili, procesów biznesowych.
  • Dostosowanie do modelu zorientowanego na usługi (Service
    Centric Model) przez co zwiększają się możliwości integracji i spada
    jej koszt.

Spośród kilkudziesięciu standardów związanych z usługami
sieciowymi najważniejsze to SOAP, WSDL, UDDI oraz WS-Security. UDDI i
WS-Security oparte są na pewnych założeniach biznesowych, które
niekoniecznie muszą się globalnie spełnić, bowiem zakładają odejście od
rynku pionowo zintegrowanego. Inne trudności techniczne to skalowalność i
pokonanie technicznych barier środowiska: wiele platform, sieci, podmiotów.
Dlatego usługi sieciowe w skali masowej zaczną się liczyć po roku 2005.
W referacie skupię się na rzeczywistym stanie wdrożeń usług sieciowych i
ilustracji zastosowań usług sieciowych z wykorzystaniem jednej z ich najważniejszych
funkcjonalności: negocjacji i mediacji (funkcja brokera). Zostanie
przedstawiona aplikacyjno-sieciowa architektura projektu IST CADENUS w aspekcie
skalowalności. Niektóre aplikacje wymagające przesłania kilkudziesięciu
wiadomości bardzo trudno skalują się na poziomie dynamicznych sesji przy
zastosowaniu urządzeń i systemów obecnie występujących na rynku.

Informacja o autorze:

Prof. dr hab. inż. Czesław Jędrzejek, w początkowym
okresie pracy związany z AGH i UJ w Krakowie. Przez okres 10 lat odbywał staże
naukowe i pracował jako Visiting Professor kolejno na kilku uczelniach w USA. W
roku 1994 związał się Francusko-Polską Wyższą Szkołą Nowych Technik
Informatyczno-Komunikacyjnych (EFP) w Poznaniu. Od października 1996 jest
profesorem na Wydziale Telekomunikacji i Elektrotechniki Akademii
Techniczno-Rolniczej w Bydgoszczy. Pracuje także w Instytucie Technik
Telekomunikacyjnych i Informatycznych (ITTI) w Poznaniu, gdzie od 1999 roku
zajmuje stanowisko Wiceprezesa Zarządu.
Jest autorem lub współautorem ponad 100 publikacji. Rozwinął grupę
software’ową w ITTI (systemy informatyczne typu ERP i CRM dla przedsiębiorstw,
systemy zdalnego nauczania wraz z materiałami). Kierował kilkudziesięcioma
projektami dla wiodących operatorów oraz dostawców sprzętu
telekomunikacyjnego w Polsce w zakresie ewolucji sieci i usług, inżynierii
ruchu w sieciach teleinformatycznych oraz wykonania, integracji i wdrożenia
systemów informatycznych.
Realizował kilka projektów europejskich dotyczących aplikacji
informatycznych.


Integrity – serwery czy rozwiązanie. Konstrukcja bezpiecznych środowisk IT

Jarosław Stępień, Damian Janiszewski
Hewlett Packard

Treścią prezentacji jest przybliżenie nowej linii produktowej serwerów hp Integrity, czyli serwerów wyposażonych w procesory z rodziny Itanium i ich wpływ na rozwój środowisk IT. Zgodnie z założeniami podanymi po połączeniu firm HP i Compaq, właśnie ta linia staje się flagowym produktem działu serwerów nowego HP. Zostanie przedstawiony postęp prac nad realizacją multisystemowego środowiska dla rozwiązań IT, opisane etapy adaptacji HP-UX, implementacji elementów Tru64 do HP-UX, przeniesienia OpenVMS na platformę Itanium oraz wsparcie dla LINUX i Windows. Ponadto przedstawiona zostanie dostępność produktów Oracle na platformę HP Integrity.

Zostanie przedstawiona metodologia konstrukcji środowiska wysokiej dostępności opartego o pojedynczy serwer z naciskiem na:

  • cechy opisujące nowoczesny, niezawodny serwer pod kątem RAS (Reliability, Availability, Serviceability)

  • koncepcję partycjonowania zasobów, różnice pomiędzy różnymi typami partycjonowania od partycji sprzętowych poprzez partycje wirtualne
  • podział zasobów w systemie operacyjnym HP-UX
  • zarządzanie i monitorowanie zasobów serwera
  • wzajemny wpływ technologii HP i Oracle na konstrukcję środowisk IT.

Rozwinięciem będzie opis koncepcji klastrowych oferowanych przez HP i integracja z technologią Oracle

Przewidujemy możliwość demonstracji narzędzi i rozwiązań działających na serwerze Integrity z systemem HP-UX.


Oracle database replication – SharePlex for Oracle

Cristian Maties
Quest Software

This presentation will look at an improved solution to the
traditional way of migration. Hardware migrations are a major availability
challenge, simply because they usually require a significant amount of downtime.
Whether a company is looking to change hardware platforms, physically move a
data center or consolidate servers to save costs, they will almost certainly
require a lengthy outage to make the switch. To help minimize the downtime
required for a migration, Quest Software offers SharePlex®, a revolutionary
log-based replication solution. SharePlex features patent-pending technology
that creates a near-real time copy of your critical data and enables the
original system to function normally until the migration is complete.

Informacja o autorze:

Cristian Maties – Senior Consultant having vast
experience in a number of Quest Products.


Wykorzystanie sprzętowych urządzeń szyfrujących w połączeniu z bazą
Oracle

Paweł Goleń
Cryptotech

Bazy danych są częścią wielu systemów informatycznych, w
których przechowywane i przetwarzane są dane. Z uwagi na fakt, iż dane te są
coraz bardziej istotne, konieczne staje się wykorzystanie bardziej
zaawansowanych technik ich ochrony. Jednym ze sposobów na zwiększenie
bezpieczeństwa danych jest wykorzystanie modułów HSM (Hardware Security
Module). Prezentacja ta omawia wykorzystanie modułów HSM w następujących
scenariuszach:

  • szyfrowanie kolumn zawierających istotne dane w bazie,
  • wykonywanie części aplikacji w module HSM,
  • szyfrowanie end-to-end między klientem a bazą danych,
  • akceleracja SSL.

W przypadku większości scenariuszy przedstawione zostaną
zwykle stosowane rozwiązania, wykazane ich słabości i potencjalne punkty
ataku, a następnie zaprezentowane rozwiązanie alternatywne wykorzystujące
moduł HSM.

Informacja o autorze:

Paweł Goleń – konsultant e-security. Posiada tytuł
Microsoft Certified Professional, Microsoft Certified System Administrator oraz
Citrix Certified Administrator. Specjalista w zakresie Windows NT/2000/XP/2003,
Linux oraz bezpieczeństwa sieci LAN i WAN. Współautor książek
„Windows NT 4.0 – bezpieczny system operacyjny” i „Windows
2000 – bezpieczny system operacyjny”, „Windows XP – bezpieczny
system operacyjny”. Autor wielu artykułów i prezentacji na konferencjach
poświęconych bezpieczeństwu IT.


Biuletyn Bezpieczeństwa PLOUG – Podsumowanie 2003.
Przegląd zagrożeń dla bezpieczeństwa produktów Oracle, które ujrzały światło
dzienne w ostatnim roku

Wojciech Dworakowski
SecuRing

W Biuletynie Polskiej Grupy Użytkowników Systemów Oracle
– PLOUG’tki, od numeru 24 ukazuje się stała rubryka –
Biuletyn Bezpieczeństwa PLOUG. Celem biuletynu jest przybliżanie
administratorom zagrożeń związanych z produktami Oracle, które zostały
ujawnione w ostatnich miesiącach. Źródłem dla publikowanych tam informacji są
nie tylko dokumenty Oracle Security Alert, ale przede wszystkim źródła
niezależne, często związane z osobami, które wykryły opisywane zagrożenia.
Podczas wykładu zostaną przedstawione najważniejsze zagrożenia dla bezpieczeństwa
produktów Oracle, które ujrzały światło dzienne w ostatnim roku. Duży
nacisk zostanie położony na praktykę administracyjną, tzn. – kiedy
dane zagrożenie się uaktywnia, jak wielkie ryzyko się wiąże z danym zagrożeniem,
czy istnieje publicznie dostępny exploit, jakie metody dodatkowe i obejścia można
zastosować by ustrzec się przed podobnymi zagrożeniami w przyszłości.
Ponadto zostaną przybliżone typowe podatności takie jak np. buffer overflow,
które często ujawniają się w produktach Oracle i innych.

Informacja o autorze:

Konsultant bezpieczeństwa IT w firmie SecuRing. Koordynator
prac zespołu i osoba odpowiedzialna za sporządzanie raportów. Siedem lat doświadczenia
praktycznego w zakresie bezpieczeństwa IT. Od trzech lat zajmuje się również
testowaniem bezpieczeństwa produktów Oracle. Prelegent na licznych
konferencjach poświęconych bezpieczeństwu IT (m.in. CERT Secure, PLOUG, Open
Source Security, Windows Security). Prowadzi rubrykę poświęconą bezpieczeństwu
w Biuletynie PLOUG.


Niezawodność, dostępność, wydajność – różne cele, różna
organizacja środowiska opartego o RAC, DataGuard i RMAN

Beata Deptuła, Marcin Przepiórowski, Marcin Kwaśniński,
Paweł Chomicz
Altkom

W systemie bazodanowym Oracle9i pojawiły się nowe
technologie: RAC oraz Data Guard. Są one niejako kontynuacją
wcześniejszych – Parallel Server oraz Bazy Standby – jednak znacząco podnoszą
bezpieczeństwo i wydajność systemu oraz usprawniają jego administrację. Połączenie
tych rozwiązań z metodą zabezpieczania bazy danych Oracle poprzez narzędzie Oracle
Recovery Manager
(RMAN) daje wysoko bezpieczny system bazodanowy.
Dzięki możliwościom oferowanym przez technologię Real Application Clusters
(RAC) uzyskujemy system wydajny i bezpieczny.
Technologia Data Guard pozwala na konfigurację systemu niezawodnego i dostępnego
bez względu na awarie serwera czy awarie logiczne w bazie danych.
Oracle Recovery Manager umożliwia wykonywanie zabezpieczeń online bazy danych.
Te trzy technologie mogą zostać skonfigurowane w środowisku produkcyjnym w różny
sposób, ukierunkowane jednocześnie na różne cele. Treść referatu nie będzie
opisem technologii RAC, Data Guard czy RMAN. Będzie koncepcją kompleksowego
rozwiązania z zastosowaniem wymienionych wyżej technologii.


Disaster: Backup & Recovery – Wykonanie kopii DR

Jarosław Łagowski
IBM Polska

W ramach projektów Disaster Recovery przeprowadzana jest
analiza wpływu katastrofy Systemu Informatycznego na działanie przedsiębiorstwa.
Jednym z wyników takiej analizy jest Katalog Procesów realizowanych w całości,
lub przynajmniej w powiązaniu z Systemem Informatycznym. W Katalogu Procesów,
określana jest istotność procesu dla przedsiębiorstwa i – w rezultacie
– maksymalny czas przestoju procesu oraz aktualność odtworzonych danych
w przypadku katastrofy. Od strony technicznej, przygotowywany jest na podstawie
Katalogu Procesów, Katalog Aplikacji. Katalog Aplikacji jest decydującym dla
strategii backupu i odtwarzania Systemu Informatycznego. Co zrobić, jeżeli
nasza Krytyczna Aplikacja musi podjąć pracę najpóźniej 2 godziny po
katastrofie systemu Informatycznego z maksymalnie aktualnymi danymi które
zajmują ponad 5 Terabajtów? Pierwszy warunek to istnienie Ośrodka Zapasowego,
przygotowanego odpowiednio od strony infrastruktury (sprzęt, sieć,
oprogramowanie systemowo – narzędziowe) do przejęcia przetwarzania w tak
krótkim czasie. Drugi warunek to maksymalnie aktualne dane w Ośrodku
Zapasowym. Przy niewielkiej wolumetrii danych można polegać na mechanizmach
bazodanowych (stand-by, zwielokrotnione pliki dziennika itp.). Aby obsłużyć
większe zbiory danych oraz uniezależnić się od typu przenoszonych danych
(np. pliki płaskie) należy sięgnąć do mechanizmów na nieco niższym
poziomie. W referacie omówiony zostanie sposób wykonywania kopii DR metodą
Split Mirror w ujęciu 2 i 3 poziomowej struktury dyskowej. Wskazane zostaną
zalety
i wady obydwu rozwiązań oraz technologie pozwalające na realizację takiego
rozwiązana kopii DR.

Informacja o autorze:

Absolwent Wydziału Matematyki, Informatyki i Mechaniki
Uniwersytetu Warszawskiego (1992). Od lipca 1992 zatrudniony w firmie UNIDATAX (VAR
Oracle) jako programista, później jako administrator baz danych. Od grudnia
1994 w IFS Poland (VAR Oracle) jako programista następnie na stanowisku
specjalisty ds. Oracle. Od maja 2000 w IBM Polska jako Kierownik Asysty
Technicznej. Od marca 2002 w IBM Polska jako Large Scale Systems Engineer.


Porównanie wydajności bibliotek XML-owych w Oracle 9i

Bartłomiej Jabłoński
Uniwersytet Łódzki

Oracle 9i udostępnia wiele narzędzi do obsługi
danych XML. Dostęp ten możliwy jest z poziomu różnych interfejsów: SQL, PL/SQL,
Javy uruchamianej w wirtualnej maszynie Oracle lub poza środowiskiem serwera.
Rosnąca popularność standardu XML powoduje, że coraz więcej firm przesyła
dane w tym formacie. Nierzadko są to dane o dużej objętości. Proces ładowania
tych dokumentów lub tworzenie obszernych raportów w formacie XML to najczęściej
spotykane sytuacje, gdzie wydajność ma kluczowe znaczenie. W takich
przypadkach istotne wydaje się wybranie takiego rozwiązania, które spełnia
określone wymagania wydajnościowe.
Artykuł przedstawia różne metody dostępu do danych XML przechowywanych na
serwerze Oracle 9i. W artykule znajduje się porównanie wydajności
procesów ładowania i raportowania dużych ilości danych w formacie XML.
Wyniki eksperymentu mogą następnie posłużyć projektantom do właściwego
wyboru określonej techniki w zastosowaniu standardu XML w swojej firmie.

Informacja o autorze:

Bartłomiej Jabłoński od 1999 roku pracuje na stanowisku
asystenta na Wydziale Matematyki Uniwersytetu Łódzkiego, gdzie zajmuje się głównie
bazami danych Oracle oraz standardem XML ze szczególnym uwzględnieniem
jego zastosowań w bazach danych. Od 1994 roku wielokrotnie uczestniczył w
projektach informatycznych związanych z bazami danych Oracle jako konsultant.
Od 1995 prowadzi szkolenia w Centrum Edukacyjnym Oracle Polska. Jest
autorem trzech i tłumaczem czterech książek z zakresu informatyki.


Maximum Availability Architecture

Wojciech Karwowski
Oracle Polska

Implementacja Maksymalnie Dostępnej Architektury (Maximum
Availability Architecture – MAA) może być niewdzięcznym zadaniem.
Architektura taka powinna obejmować nadmiarowość (redundancję) wszystkich
komponentów, zapewniać szybkie odtwarzanie lub usunięcie usterki dla
wszelkich typów awarii, charakteryzować się wysoką wydajnością,
zabezpieczać przed błędami użytkowników, korupcją danych, niedostępnością
składowych systemu i innych komponentów. W dodatku powinna być w miarę
przejrzysta, prosta w zarządzaniu i skalowalna. Referat ten zapozna Państwa z
możliwościami implementacji takiej architektury. Architektury opartej o
komponenty Oracle takie jak Real Application Clusters, Data Guard, Internet
Application Server. Opartej o odpowiednie rozwiązania sprzętowe i systemowe.
Zaimplementowanej według zdefiniowanej metodologii i działającej w oparciu o
przyjęte procedury.
Dokumentacja do referatu liczy 196 stron tekstu wysoce technicznego.
Dokumentacja i slajdy dostępne są tylko w języku angielskim.
Referat prowadzony będzie w języku polskim.

Informacja o autorze:

Wojciech Karwowski jest pracownikiem firmy Oracle. Jako
Channel Consultant zajmuje się wsparciem technologicznym partnerów firmy
Oracle.


Realizacja hurtowni danych dla administracji publicznej na przykładzie
budowy systemu IACS

Mariusz Muszyński
Pentacomp Systemy Informatyczne

Prace nad hurtownią danych dla systemu IACS zostały rozpoczęte
w lipcu 2001 roku. W czasie realizacji produktu wielokrotnie zmieniały się założenia
funkcjonalne, architektura systemu oraz organizacja prac projektowych.
Obecnie hurtownia IACS gromadzi dane pochodzące z rejestru gospodarstw rolnych,
rejestru zwierząt oraz rejestru ZSZiK (Zintegrowany System Zarządzania i
Kontroli). Kolejny etap prac to przystosowanie hurtowni do obsługi schematów
obszarowych.
Hurtownia IACS została zaprojektowana i zrealizowana przez firmę Pentacomp.
Rozwiązanie zostało zaimplementowane na serwerze bazy danych Oracle 9i z
wykorzystaniem oprogramowania typu ETL oraz narzędzi OLAP firmy Oracle. Dane w
hurtowni gromadzone są w cyklu dobowym, a raporty udostępniane w trybie online.
W referacie przedstawiona zostanie historia projektu, główne problemy
organizacyjne oraz technologiczne, na jakie napotkano przy jego realizacji oraz
zastosowane rozwiązania.

Informacja o autorze:

Absolwent Instytutu Informatyki Politechniki Białostockiej.
Od sierpnia 1997 roku pracuje dla firmy Pentacomp Systemy Informatyczne. W
latach 1997-1999 jako projektant-programista brał udział w realizacji systemu
IKSS (Infrastruktura Krytyczna Systemu Śledzenia wagonów i przesyłek)
realizowanego na zlecenie PKP, w latach 1999-2001 był analitykiem-projektantem
korporacyjnej hurtowni danych CIS (Company Information System) w PTC, od 2001
kierownik oraz główny projektant części analitycznej systemu IACS dla
Agencji Restrukturyzacji i Modernizacji Rolnictwa (ARiMR).


Wydajność i niezawodność – system masowego drukowania i
dystrybucji paszportów zwierząt w Polskiej Wytwórni Papierów Wartościowych
S.A.

Piotr Salata
Pentacomp Systemy Informatyczne,
Robert Domagała
Polska Wytwórnia Papierów
Wartościowych

Zadaniem nowoczesnych systemów informatycznych może być
nie tylko obsługa transakcji, sterowanie procesami, czy przetwarzanie zbiorów
danych. Jednym z interesujących i widocznych dla wszystkich zastosowań jest
masowa produkcja dokumentów spersonalizowanych. Jednym z nielicznych funkcjonujących
obecnie w kraju przykładów tego typu rozwiązań jest system masowego
drukowania dokumentów związanych z rejestracją i identyfikacją bydła. Na
podstawie danych, otrzymywanych z systemu IACS, ma on za zadanie produkować
dziesiątki tysięcy dokumentów dziennie. System tego typu ma wyjątkowo
wysokie wymagania dotyczące wydajności, jakości i niezawodności.
Oprogramowanie musi zapewniać pełną kontrolę produkcji – począwszy od
pojedynczego dokumentu, aż do kontrolowania całego procesu produkcyjnego.
W referacie przedstawione są założenia stworzonego systemu, postawione
wymagania oraz wykorzystanie technologii Oracle do realizacji rozwiązania, w którym
kluczową rolę odgrywają: efektywne ładowanie danych, dostęp do informacji
na różnych poziomach agregacji oraz oczywiście generowanie spersonalizowanych
dokumentów o bardzo precyzyjnie określonym formacie.
System został wykonany przez Pentacomp Systemy Informatyczne w ramach projektu
firmy Hewlett-Packard Polska i wdrożony w Polskiej Wytwórni Papierów Wartościowych
S.A.


Jak sprawić, aby dane były czyste?

Tomasz Wyrozumski
Biuro Matematyki Stosowanej S.C.

Omawiamy pokrótce przyczyny, dla których jakość danych
gromadzonych w systemach informatycznych jest na ogół gorsza niż oryginalnie
zakładana przez ich projektantów. Staramy się przy tym wskazać te cechy
systemów, które mają najbardziej negatywny wpływ na jakość wprowadzanej do
nich informacji. Pokazujemy też, w jaki sposób zanieczyszczenie informacji wpływa
zwrotnie na złe funkcjonowanie systemów, lecz z drugiej strony argumentujemy,
że nadmierne wymagania w stosunku do danych obniżają efektywną użyteczność
oprogramowania, które je gromadzi. Przedstawiamy wreszcie typowe sytuacje, w których
konieczne jest przeprowadzenie operacji czyszczenia danych i próbujemy
zobrazować, w jaki sposób użycie metod data mining może okazać się do tego
przydatne.

Informacja o autorze:

Z wykształcenia fizyk, absolwent Uniwersytetu Jagiellońskiego.
Doktorat w dziedzinie fizyki teoretycznej na Uniwersytecie Wiedeńskim. Od 1992
roku zajmuje się profesjonalnie informatyką, kierując Biurem Matematyki
Stosowanej (Kraków). Uczestniczy przy tym aktywnie w komercyjnych projektach
informatycznych, związanych między innymi z analizą i eksploracją danych
(„data mining”).


Projektowanie i implementacja procesu ETL

Stefan Rozmus
Wojskowa Akademia Techniczna

Proces ETL (ang. Extraction, Transformation, Loading)
odpowiada za całą drogę, jaką muszą przebyć dane od źródeł do środowiska
hurtowni danych i obejmuje pobieranie, przekształcanie i przenoszenie danych.
Projektowanie i implementacja tego procesu jest jedną z najpoważniejszych i
najtrudniejszych faz cyklu życia hurtowni danych, która z reguły zajmuje
znacznie więcej czasu, niż to początkowo zaplanowano. Przyczyn takiego stanu
rzeczy należy upatrywać zarówno w niekompletnych często zapotrzebowaniach na
dane źródłowe, wynikających z definicji wymagań biznesowych, jak i w
realnych możliwościach pozyskania tych danych oraz zapewnieniu ich jakości i
czystości na poziomie gwarantującym wiarygodność projektowanej hurtowni
danych. Kolejne utrudnienie to konieczność zaplanowania właściwie dwóch
procesów ETL: jednego, dla początkowego załadowania hurtowni danych, drugiego
– dla jej przyrostowego uaktualniania. W referacie został opisany plan
tworzenia aplikacji realizujących proces ETL, a wskazówki w nim zawarte, w
przekonaniu autora, pozwolą zmniejszyć ryzyko niepowodzenia tego przedsięwzięcia.

Informacja o autorze:

Autor jest pracownikiem naukowo-dydaktycznym Wydziału
Cybernetyki Wojskowej Akademii Technicznej oraz Wyższej Szkoły Ekonomicznej w
Warszawie. W ostatnim okresie był dyrektorem działu IT jednej z największych
polskich hurtowni farmaceutycznych. W swej działalności naukowej zajmuje się
problematyką wykorzystania narzędzi CASE w projektowaniu systemów
informatycznych, hurtowniami danych i systemami wspomagania decyzji.


Oracle IFS – archiwizacja i obieg dokumentów: organizacja biura

Beata Deptuła, Marcin Przepiórowski, Marcin Kwaśniński,
Paweł Chomicz
Altkom

Korzystanie ze standardowego systemu plików niesie ze sobą
szereg ograniczeń, przede wszystkim czas przeszukiwania danych jest
nieefektywny, ponadto mocno utrudniona jest praca grupowa wielu osób nad tymi
samymi dokumentami – może się zdarzyć, że dwie osoby modyfikują ten
sam dokument w tym samym czasie. Brak jest również możliwości zapisu wersji
dokumentu. Rozwiązaniem tych problemów może być zastosowanie Oracle Internet
File System (IFS).
IFS łączy w sobie serwer plików, serwer HTTP, FTP, e-mail i serwer bazy
danych. Co oznacza, że jest wiele sposobów na uzyskanie dostępu do składowanych
dokumentów. Z punktu widzenia użytkownika zachowuje się jak serwer plików,
jego funkcjonalność jest jednak znacznie rozszerzona. Poza kopiowaniem, zmianą
nazwy czy kasowaniem plików pozwala np. na ustawienie daty wygaśnięcia pliku,
blokowanie, wersjonowanie, check in / check out.
Korzyści z zastosowania IFS:

  • możliwość wykonywania większości operacji zwykle
    dostępnych w programach, w tym: blokowanie dostępu do plików, kontrola
    wersji;
  • uniwersalny dostęp do informacji: poprzez Windows,
    przeglądarkę internetową, klienta FTP. Dokumenty można edytować bezpośrednio
    w systemie IFS;
  • integracja z systemem Windows;
  • zarządzanie dostępem – użytkownik może
    kontrolować dostęp do swoich plików definiując użytkowników lub grupy,
    które mogą przeglądać, edytować lub kasować pliki;
  • zaawansowane funkcje wyszukujące – niemożliwe do
    zrealizowania w standardowym systemie plików, zawartość dowolnego typu
    plików może być indeksowana w bazie danych, co pozwala na znaczne zwiększenie
    szybkości wyszukiwania oraz na wyszukiwanie w plikach rozmaitych typów.

Najnowsze trendy w dziedzinie zabezpieczeń sieci informatycznych. Firewalle
aplikacyjne, IPS, IDS in-line

Wojciech Dworakowski
SecuRing

W ostatnich latach rozwinęły się nowe technologie związane
ochroną zasobów w sieciach informatycznych. Okazało się, że tradycyjne
technologie (firewall, IDS) nie są w stanie sprostać współczesnym zagrożeniom
i sposobom ataku. Te nowe technologie, to m.in.:

  • Firewalle aplikacyjne, które rozumieją ruch sieciowy
    chronionych aplikacji,
  • IPS (Intrusion Protection System) – rozwinięcie
    technologii IDS o możliwość rozłączania podejrzanych połączeń
    sieciowych,
  • IDS-inline – system wykrywania intruzów, który
    umie blokować próby włamań.

Technologie te do tej pory rozwijane w laboratoriach i jako
open source najwyraźniej dojrzały już do wprowadzenia na rynek komercyjny.
Widać to po najnowszych ofertach producentów systemów zabezpieczających.
Celem prezentacji będzie przybliżenie tych nowych technologii (a nie produktów!)
również w kontekście chronienia zasobów udostępnianych przez instalacje
Oracle i przygotowanie administratora na wybór właściwych rozwiązań.

Technologie omawiane podczas referatu zostaną dokładniej zaprezentowane podczas warsztatu „Zewnętrzne narzędzia zabezpieczające bazy danych i aplikacje przed włamaniami” (WP9 ataki)

Informacja o autorze:

Konsultant bezpieczeństwa IT w firmie SecuRing. Koordynator
prac zespołu i osoba odpowiedzialna za sporządzanie raportów. Siedem lat doświadczenia
praktycznego w zakresie bezpieczeństwa IT. Od trzech lat zajmuje się również
testowaniem bezpieczeństwa produktów Oracle. Prelegent na licznych
konferencjach poświęconych bezpieczeństwu IT (m.in. CERT Secure, PLOUG, Open
Source Security, Windows Security). Prowadzi rubrykę poświęconą bezpieczeństwu
w Biuletynie PLOUG.


Czy można w prosty sposób odzyskać dane uszkodzone wskutek błędnych
instrukcji SQL?

Piotr Kołodziej
Oracle Polska

Ludzka pomyłka, np. usunięcie bądź niewłaściwe
zmodyfikowanie wierszy w kluczowej tabeli, może spowodować utratę
funkcjonalności systemu. Rozwiązywanie tego typu problemów poprzez
odtwarzanie bazy danych bądź przestrzeni tabel do punktu w czasie może
wprowadzić konieczność przestoju systemu i ryzyko dezaktualizacji innych
danych. Utrata części danych może mieć miejsce także w przypadku
przywracania danych z kopii logicznych (np. plików eksportu). Wykorzystując
cechy serwera bazy danych Oracle 9i/10G można rozwiązać przynajmniej niektóre
ze wspomnianych problemów. Tego rodzaju rozwiązania są przezroczyste dla
aplikacji i logicznej struktury danych. Celem referatu jest zwrócenie uwagi słuchaczy
na uwzględnienie zabezpieczenia przed popełnieniem błędów ludzkich w
stosowanych mechanizmach ochrony przed utratą danych i przegląd dostępnych
metod.

Informacja o autorze:

Prowadzący jest konsultantem Działu Wsparcia Sprzedaży
Rozwiązań Technologicznych w Oracle Polska. Specjalizuje się w zagadnieniach
dotyczących RDBMS Oracle.


Strojenie zapytań SQL – czyli, „można jeszcze szybciej”

Krzysztof Kawa

Strojeniu zapytań SQL poświęcono już bardzo wiele miejsca
w literaturze. Jako osoba z dość dużym doświadczeniem w dziedzinie strojenia
zapytań SQL baz danych Oracle 8i i 9i chciałbym przedstawić kilka rad, których
stosowanie z pewnością korzystnie wpłynie na szybkość realizacji zapytań.

Informacja o autorze:

Krzysztof Kawa, absolwent informatyki na Politechnice Poznańskiej
w Poznaniu oraz Wydziału Biznesu Międzynarodowego na Akademii Ekonomicznej w
Poznaniu. Od kilku lat pracuje przy projektowaniu i eksploatacji dużych systemów
informatycznych w kraju i zagranicą. Specjalizuje się w strojeniu aplikacji
opartych na rozwiązaniach firmy Oracle oraz projektowaniu rozwiązań J2EE.


Solutions for detect, diagnose and resolve
performance problems in J2EE applications

Cristian Maties
Quest Software

Custom-developed J2EE applications require performance
assurance across the application lifecycle. Quest Software provides
comprehensive coverage, from code optimization in development, through
pre-production testing in QA, to 24×7 performance monitoring once the
application goes into production.
We will present, how Quest Software provides an integrated solution designed to
help all the stakeholders in J2EE application performance management accelerate
the detection, diagnosis and resolution of business-threatening performance
issues.

Informacja o autorze:

Cristian Maties – Senior Consultant having vast
experience in a number of Quest Products.


Serwery uniksowe IBM jako bezpieczna platforma bazodanowa

Ryszard Kobojczyk
IBM Polska

Serwery uniksowe IBM (pSeries) przez ostatnie dwa lata uległy znaczącej zmianie. Technologie sprzętowe dostępne do niedawna tylko w maszynach typu mainframe zagościły na stałe w serwerach uniksowych IBM’a. Podczas prezentacji zostaną przedstawione serwery IBM eServer pSeries oraz rozwiązania technologiczne podwyższające ich bezpieczeństwo w zastosowaniach bazodanowych.
Przykładowo – unikalną na rynku serwerów cechą rodziny pSeries jest możliwość dynamicznej dealokacji procesorów. W przypadku, gdy jeden z procesorów serwera sygnalizuje nieprawidłowość działania, specjalne mechanizmy systemu AIX i procesora serwisowego automatycznie go odłączają. Jego zadania są wówczas rozkładane na pozostałe procesory, zaś jego wymiana może zostać dokonana w czasie normalnej obsługi systemu, nie przerywając działania aplikacji. Dodatkową poprawę dostępności systemu uzyskano dzięki wbudowanym mechanizmom korekcji błędów i przekłamań danych. W tym celu pamięć operacyjna wykorzystuje mechanizm Chipkill stosowany wcześniej w serwerach korporacyjnych S/390. Wyniki badań przeprowadzonych w laboratoriach IBM pokazują, że systemy bez mechanizmu Chipkill są około 100 razy bardziej narażone na nieprzewidziane przestoje w pracy spowodowane awarią układów pamięci.


Istotne aspekty wydajności pojedynczych serwerów i klastrów IBM

Ryszard Kobojczyk
IBM Polska

Rodzina IBM pSeries, następcy IBM RS/6000, należy do klasy serwerów pracujących pod kontrolą systemu Unix i wyposażonych w procesory RISC. Od ponad dwóch lat wykorzystuje procesory POWER4, należące do jednych z najwydajniejszych dostępnych na rynku. Dzięki temu również serwery pSeries należą do najwydajniejszych maszyn uniksowych z bardzo korzystnym współczynnikiem cena/wydajność. Na prezentacji zostaną omówione czynniki wpływające na wydajność transakcyjną pojedynczych serwerów i klastrów oraz klastry niezawodnościowe i wydajnościowe w kontekście aplikacji transakcyjnych i baz danych skalujących się poziomo (serwery aplikacyjne i równoległe wersje baz danych).

Informacja o autorze:

Ryszard Kobojczyk – absolwent Instytutu Technologii Elektronowej Wydziału Elektroniki Politechniki Wrocławskiej (1989). Od ponad 10 lat zatrudniony w IBM Polska początkowo jako inżynier systemowy związany z systemami klasy Midrange (AS/400 i UNIX), później jako konsultant techniczny systemów ERP oraz System Architekt. Obecnie pracuje w dziale Enterprise Systems Group jako specjalista techniczny..