Opisy referatów

Doświadczenia w przygotowywaniu środowiska IBM System p / AIX do dużych migracji bazy Oracle

(IBM Polska)

Abstrakt:
Prezentacja typu case study na bazie ważnych testów w IBM/Oracle Center w Montpellier w kwietniu br.

Przegląd nowości z zakresu baz danych w ofercie Quest Software

Paweł Żuchowski (Quest Polska)

Abstrakt:
Prezentacja będzie miała na celu przedstawienie portfolio produktów firmy Quest Software dla platformy Oracle. Prowadzący opowie o nowościach w ofercie Quest Software na rok 2007. Zostaną zaprezentowane i omówione takie produkty jak: Foglight 5, Capacity Manager, InTrust for Databases. Omówione zostaną zastosowania w/w narzędzi do monitorowania i diagnostyki obciążenia serwera, historycznego śledzenia wielkości bazy danych i problemów związanych z zarządzaniem składowaniem a także śledzenia spełnienia polityki bezpieczeństwa firmy.

Informacja o prowadzącym:
Paweł Żuchowski jest Dyrektorem Handlowym w firmie Quest Polska, w której pracuje od czerwca 2004 r. Swoją ścieżkę zawodową rozpoczynał jako administrator Novell i Microsoft w firmie TETA SA, w której pracował od 1998. Od początku związany z bazami danych Oracle. Pracując jako produkt manager i kierownik działu administratorów baz danych, w roku 2000 uzyskał tytuł MCSE oraz OCP. Paweł Żuchowski ukończył Uniwersytet Wrocławski, uzyskując tytuł magistra na wydziale Informatyki. Wiedzę swoją pogłębiał dalej na licznych kursach w kraju i zagranicą.

SVG – wizualizacje w XML

Tomasz Traczyk (Politechnika Warszawska)

Abstrakt:
Bardzo często do efektywnej prezentacji danych wykorzystujemy grafikę. Gdy wystarczą po prostu wykresy, użyć można gotowych narzędzi, czy bibliotek. Gdy jednak chcielibyśmy nasze dane przedstawić w mniej typowy sposób, przydać się może SVG.

Scalable Vector Graphics jest standardem opisu w XML grafiki wektorowej. Pozwala tworzyć skalowalne rysunki i włączać je do dokumentów, np. do stron HTML. Gdy do SVG dodać język ECMAScript, można tworzyć grafikę interaktywną. Zaś gdy połączymy to z XSLT lub XQuery oraz z możliwościami pozyskiwania informacji z baz danych w postaci XML, otrzymamy potężne narzędzie pozwalające na podstawie danych z bazy tworzyć złożone wizualizacje.

Referat prezentuje podstawy SVG, pokazuje jak stworzyć grafikę interaktywną, a także w jaki sposób za pomocą ogólnie dostępnych narzędzi tworzyć wizualizacje danych.

Informacja o prowadzącym:
Autor jest adiunktem na Politechnice Warszawskiej. Specjalizuje się w zastosowaniach baz danych i języka XML.

Analiza porównawcza technologii odwzorowania obiektowo-relacyjnego dla aplikacji Java EE

Piotr Błoch, Marek Wojciechowski (Politechnika Poznańska)

Abstrakt:
Zaawansowane technologie do obsługi komunikacji z bazą danych w aplikacjach Java EE są oparte o koncepcję odwzorowania obiektowo-relacyjnego. Idea ta stanowi również podstawę nowego standardu Java Persistence, opracowanego wraz z EJB 3.0. Celem artykułu jest porównanie możliwości i wydajności najpopularniejszych technologii odwzorowania obiektowo-relacyjnego: Hibernate, JDO i Oracle Toplink oraz standardu Java Persistence.

Informacja o prowadzącym:
dr inż. Marek Wojciechowski jest adiunktem w Instytucie Informatyki Politechniki Poznańskiej. Specjalizuje się w eksploracji danych i technologiach internetowych. Jest autorem ok. 70 publikacji o charakterze naukowym i technicznym. Od kilku lat prowadzi szkolenia z technologii internetowych i produktów Oracle w Polsce i za granicą w ramach Oracle University. W trakcie konferencji, szkół i seminariów PLOUG wielokrotnie prowadził warsztaty, tutoriale i wykłady na temat tworzenia aplikacji internetowych, ze szczególnym uwzględnieniem platformy Java EE.

Ocena techniczna ADF Faces 11g Rich Client

Maciej Zakrzewicz (PLOUG, Politechnika Poznańska)

Abstrakt:
ADF Faces 11g Rich Client to nowa wersja biblioteki komponentów wizualnych do wykorzystania w aplikacjach powstających w oparciu o szkielet JavaServer Faces (Java EE). Na szczególną uwagę zasługuje bogactwo funkcjonalne oraz wykorzystanie technologii AJAX w celu poprawy interakcyjności komponentów wizualnych. Celem referatu jest ocena funkcjonalności i efektywności ADF Faces 11g Rich Client.

Informacje o prowadzącym:
Pracownik Instytutu Informatyki Politechniki Poznańskiej oraz prezes Zarządu Stowarzyszenia Polskiej Grupy Użytkowników Systemu Oracle. Zainteresowania naukowe obejmują eksplorację danych (data mining), systemy baz danych/hurtowni danych oraz technologie internetowe. Dla krajowych i zagranicznych uniwersytetów oraz przedsiębiorstw (m.in. Niemcy, Wielka Brytania, USA) prowadzi wykłady i szkolenia z zakresu projektowania i implementacji systemów informatycznych. Kieruje i doradza w projektach informatycznych realizowanych w architekturach internetowych. Autor wielu publikacji z zakresu odkrywania zbiorów częstych, przetwarzania zapytań eksploracyjnych, adaptatywnych serwerów WWW, technik indeksowania baz danych, strojenia systemów baz danych, standardów Java dla baz danych i dla aplikacji wielowarstwowych. Współtwórca serii konferencji i seminariów PLOUG, służących transferowi wiedzy i technologii w środowisku krajowych przedsiębiorstw informatycznych.

JHeadstart 10.1.3 – nowa jakość tworzenia aplikacji Java EE

Mikołaj Morzy (Politechnika Poznańska)

Abstrakt:
Architektura wielowarstwowa szybko staje się de facto standardem tworzenia nowoczesnych aplikacji. Elastyczność, otwartość, produktywność, oraz uproszczona pielęgnacja aplikacji czynią architekturę wielowarstwową bardzo atrakcyjnym wyborem projektowym. Niestety, budowanie w pełni wielowarstwowych aplikacji wymaga od osób projektujących i implementujących aplikacje bardzo wysokich kwalifikacji oraz znajomości różnych narzędzi, interfejsów i protokołów wykorzystywanych w ramach poszczególnych warstw aplikacji. Stąd, wiele przedsiębiorstw i organizacji rezygnuje z inwestowania w tworzenie aplikacji wielowarstwowych, z obawy przed niepowodzeniem takich projektów.

JHeadstart to nowe narzędzie, którego celem jest maksymalne uproszczenie procesu tworzenia aplikacji wielowarstwowych. JHeadstart ściśle integruje się ze środowiskiem programistycznym JDeveloper i umożliwia deklaratywne projektowanie aplikacji wielowarstwowej w technologii ADF w oparciu o wygenerowany wcześniej model danych oraz bogaty zbiór preferencji i metadanych. Wykorzystanie narzędzia JHeadstart pozwala na błyskawiczne stworzenie aplikacji wielowarstwowej bez konieczności napisania nawet jednej linijki kodu. Sam proces tworzenia aplikacji jest podobny do procesu tworzenia aplikacji w architekturze klient-serwer przy użyciu narzędzia Oracle Forms, stąd JHeadstart stanowi bardzo atrakcyjną alternatywę dla organizacji rozważających migrację z aplikacji Oracle Forms na platformę wielowarstwową.

W referacie przedstawiono szczegółowo narzędzie JHeadstart. Opisano poszczególne elementy narzędzia: edytor graficzny, generator aplikacji, wtyczkę do Oracle Designer (umożliwiającą generowanie aplikacji wielowarstwowych bezpośrednio na podstawie definicji z repozytorium Oracle Designer) oraz zestaw komponentów JHeadstart Runtime rozszerzających funkcjonalność ADF Framework. Pokrótce omówiono także kwestie licencjonowania narzędzia oraz kwestie zgodności JHeadstart z innymi narzędziami Oracle.

Informacje o prowadzącym:
Dr inż. Mikołaj Morzy jest adiunktem w Instytucie Informatyki Politechniki Poznańskiej. Wcześniej pracował na Uniwersytecie w Muenster (Niemcy) i Loyola University w Nowym Orleanie (Stany Zjednoczone). Jego zainteresowania naukowe koncentrują się przede wszystkim na tematyce eksploracji danych, jest on autorem ponad czterdziestu publikacji dotyczących tej tematyki. Drugą dziedziną zainteresowań i głównym tematem działalności dydaktycznej Mikołaja Morzego są technologie i architektury szkieletowe dla aplikacji internetowych i rozproszonych.

Oracle11g dla koneserów i nie tylko

Marek Martofel, Piotr Kołodziej (Oracle Polska)

Abstrakt:
W bieżącym roku Oracle zaprezentował nowe wcielenie swego flagowego produktu pod nazwą Oracle11g. Jak widać po zastosowanej nomenklaturze nazewnictwa oraz liście zaimplementowanych, nowych funkcji, kontynuuje ona zapoczątkowany wraz z Oracle10g kierunek związany z architekturą GRID. Mnogość nowych opcji, jak i niepodważalna wysoka jakość produktu za umiarkowaną cenę, wyznaczają nie tylko nowe standardy w dziedzinie relacyjnych baz danych, ale również wytyczają nowe, do tej pory nieznane kierunki rozwoju systemów IT. Uproszczenie w testowaniu aplikacji, wysoki poziom kompresji danych dla osiągnięcia minimalnych kosztów ich składowania oraz dostęp do wszystkich wersji zmienionych danych, to tylko niektóre elementy Oracle11g będące tematem prezentacji, a w niedługim czasie wymagań stawianych nowym rozwiązaniom w oprogramowaniu.

Baza danych Oracle11g – nowe cechy

Mariusz Masewicz (Politechnika Poznańska)

Abstrakt:
Wreszcie doczekaliśmy się informacji na temat tego, co nam przyniesie jedenasta wersja naszej ulubionej bazy danych. Tym razem tradycyjnie ewolucja i rewolucja idą w parze sprawiając, że do ręki otrzymamy produkt, który w wielu miejscach pozytywnie zaskoczy nas swoim działaniem.

Lista nowych cech bazy danych Oracle 11g zawiera prawie 500 pozycji.

Niniejszy referat prezentuje nowe cechy bazy danych Oracle 11g, pokazując jednocześnie propozycje ich zastosowania do rozwiązania typowych problemów, na które napotykają w swojej codziennej pracy administratorzy i programiści bazy danych. Zmiany dotyczą praktycznie wszystkich aspektów pracy z bazą danych – od wykonywania pojedynczych poleceń, poprzez zmianę sposobu patrzenia na składowane dane, do zaawansowanych mechanizmów zarządzania wielkim i wolumenami danych, strojenia bazy danych, czy też zarządzania niezawodnością.

Informacja o autorze:
mgr inż. Mariusz Masewicz jest pracownikiem Instytutu Informatyki Politechniki Poznańskiej. Od wielu lat jest też twórcą, administratorem i użytkownikiem wielu aplikacji opartych o bazę danych Oracle. Przez cały ten czas w kręgu jego zainteresowań znajduje się szereg zagadnień związanych z optymalizacją pracy poszczególnych składników architektury Oracle.

Oracle Database 11g w praktyce

Janusz Jarząbkowski (OPITZ CONSULTING GmbH)

Abstrakt:
W pierwszej części referatu zostaną wyjaśnione główne cechy bazy danych 11g, do których należą: administracja, zabezpieczenia jak również tolerancja błędów. Zostanie przedstawiony nowy SQL Plan Management – jak można w oparciu o niego osiągnąć stabilizację planów wykonawczych i w jaki sposób mogą być wykorzystane różne nowe funkcje.

W referacie będzie także przedstawiona nowa opcja „Database Replay”. Pokazane będą (zarówno teoretycznie jak i praktycznie) różnorodne możliwości tej szczególnie interesującej technologii. Przedstawione będą również jej możliwości zastosowania w projektach i różnych testach obciążeniowych.

Przygotowanie systemu IBM AIX dla instalacji Oracle RAC

Maciej Przepiórka (IBM Polska)

Abstrakt:
Przygotowanie platformy systemowo-sprzętowej dla instalacji Oracle Real Application Cluster w wersji 10g jest bardzo mocno zależne od specyfiki tejże platformy. Referat ma za zadanie przedstawić aspekty, na które trzeba zwrócić szczególną uwagę przygotowując system IBM AIX 5L w trzech różnych architekturach: Oracle na wolumenach surowych z wykorzystaniem Automatic Storage Devices, Oracle na IBM General Parallel File System, Oracle na wolumenach surowych utworzonych jako grupa zasobów IBM HACMP. Opisano także wady i zalety każdej architektury, co pozwoli na wybór konkretnego rozwiązania, zanim nastąpi proces implementacji.

Automatyzacja procesu instalacji poprawek Critical Patch Update za pomocą Oracle Enterprise Manager 10g Release 3 (10.2.0.3)

Marek Jakubczak (GSK Services Sp. z o.o.)

Abstrakt:
Referat ma na celu przybliżenie słuchaczom funkcjonalności dostępnej w Oracle Enterprise Manager 10g Release 3 (10.2.0.3), którą można wykorzystać do automatyzacji procesu instalacji poprawek Critical Patch Update (CPU). Zarządzanie instalacją poprawek CPU zostanie przedstawione jako proces składający się z czterech etapów: Identyfikacja i pobranie, Analiza i kwalifikacja, Instalacja, Raportowanie i zgodność.

Identyfikacja i pobranie

Etap Identyfikacja i pobranie ma na celu sprawną i niezawodną identyfikację nowych aktualizacji oprogramowania oraz ustalenie, czy aktualizacja jest krytyczna. Identyfikacja może być procesem manualnym, albo w pełni zautomatyzowana.

Analiza i kwalifikacja

Na etapie Analiza i kwalifikacja poprawka zostaje poddana analizie wpływu na system, włączając w to przestój w pracy systemu związany z ewentualną instalacją poprawki, zależności i konfliktów z innymi poprawkami już zainstalowanymi. Poprawka przechodzi również przez proces testowania na systemie testowym i jeżeli wszystkie kryteria są spełnione, poprawka jest kwalifikowana do instalacji na konkretnych systemach.

Instalacja

Etap Instalacja polega na w pełni zautomatyzowanym procesie dostarczania poprawki do systemu, zatrzymaniu systemu, zainstalowaniu poprawki i w końcu na uruchomieniu systemu. Domyślna procedura może być dostosowywana do indywidualnych potrzeb lub można skorzystać ze specjalizowanych procedur, jak na przykład takiej, która minimalizuje czas niedostępności systemu lub która uruchamia proces wykonania kopii bezpieczeństwa przed i/lub po instalacji poprawki.

Raportowanie i zgodność

Etap Raportowanie i zgodność jest ciągłym procesem, gdzie administratorzy przeglądają raporty, aby sprawdzić, że właściwe poprawki zostały zainstalowane we właściwym czasie oraz, że system jest zgodny z ostatnimi aktualizacjami udostępnionymi przez dostawcę oprogramowania. Raporty mogą być wykonywane na żądanie (ad-hoc), bądź administratorzy mogą otrzymywać alerty w przypadkach nie spełnienia standardów zgodności. Administratorzy mogą również tworzyć własne raporty, dostosowane do ich indywidualnych potrzeb.

Informacja o autorze:
Administrator baz danych w centrum obsługi technicznej, świadczącym usługi wsparcia IT dla oddziałów GlaxoSmithKline rozmieszczonych na całym świecie. Zespół, którego jest członkiem, zarządza ponad 300 instancjami baz danych Oracle. Absolwent Politechniki Poznańskiej, gdzie specjalizował się w zakresie Projektowania i Eksploatacji Systemów Informatycznych. Ukończył Studia Podyplomowe w Wyższej Szkole Bankowej na kierunku Zarządzanie Projektem. Posiada certyfikat Oracle Certified Professional (OCP) oraz CompTIA Security+, ITIL Foundation Certificate in IT Service Management. Od 2006 członek PLOUG.

Archiwizacja danych historycznych

Krzysztof Mikołajczyk (Bull Polska)

Abstrakt:
Ilość danych przechowywanych w bazach danych gwałtownie rośnie, co między innymi powoduje konieczność powiększania przestrzeni dyskowych oraz spadek wydajności. Niektóre dane historyczne nie są niezbędne w bieżącej pracy – usunięcie ich z bazy danych może poprawić wydajność i zarazem zmniejszyć zapotrzebowanie na dyski. Jednak nie zawsze dane historyczne mogą być usunięte kompletnie, czasami jest wymagany sporadyczny dostęp do nich.

W referacie zostaną przedstawione różne metody radzenia sobie z danymi historycznymi, począwszy od określania zestawu danych, poprzez ich usunięcie i badanie wydajności bazy, a skończywszy na sposobach dostępu do danych historycznych.

Referat może zainteresować administratorów baz danych, administratorów aplikacji, jak również analityków.

Problemy poruszane w referacie:

  1. Przygotowanie zestawu danych do archiwizacji. a. Składowanie danych w bazie. b. Określenie zestawu danych. c. Weryfikacja poprawności zestawu. d. Określenie sposobu dostępu do danych historycznych.
  2. Składowanie danych historycznych. a. Określenie wymagań. b. Miejsca składowania.
  3. Usuwanie danych historycznych. a. Metody usuwania. b. Dodatkowe operacje związane z usuwaniem danych.
  4. Dostęp do danych historycznych. a. Łączenie danych bieżących i historycznych. b. Metody odtwarzania.
  5. Wydajność. a. Sprawdzanie wydajności bazy po usunięciu zestawu danych. b. Operacje mające na celu poprawę wydajności.

Zarządzanie jakością przy produkcji oprogramowania, czyli jakość to będzie (w następnym wydaniu)

Andrzej Sołowiej (ASSECO POLAND S.A.)

Abstrakt:
Pojęcia „jakość” używamy na co dzień. Intuicyjnie każdy z nas wie, co ono oznacza. Mówimy, że jakiś wyrób jest doskonałej jakości, inny jest taki sobie a jeszcze inny jest bublem. Gdybyśmy jednak mieli wyjaśnić, czym jest jakość i co decyduje o tym, że jeden produkt oceniamy jako dobrej jakości a inny nie, czy potrafilibyśmy to zrobić? Czy następnie potrafilibyśmy dostosować te pojęcia tak, aby pasowały do świata informatyki? Czy wystarczy, że oprogramowanie nie posiada błędów i jest zgodnie ze specyfikacją aby uznać, że jest dobrej jakości? Czy może musi mieć jeszcze jakieś inne cechy? Czy w ogóle możliwe jest jednoznaczne zdefiniowanie kryteriów oceny jakości oprogramowania? W swoim referacie próbuję znaleźć odpowiedzi na te pytania.

Próbuję też znaleźć wyjaśnienie przyczyn pewnego zjawiska, z którym wielokrotnie stykam się przez ostatnie lata, pracując w projektach informatycznych. Dlaczego – pomimo, że z roku na rok mamy do dyspozycji coraz lepsze komputery i oprogramowanie, w tym coraz lepsze narzędzia deweloperskie, pomimo, że wśród nas jest coraz więcej, coraz lepiej wykształconych i coraz bardziej doświadczonych informatyków, pomimo, że kierują nami coraz lepsi, wielokrotnie nieraz certyfikowani kierownicy, i w dodatku wszyscy chcemy dobrze – to tak często wychodzi nam „jak zwykle”? Mam na myśli sytuację, gdy klient, za swoje pieniądze, otrzymuje oprogramowanie niskiej jakości. Czyżbyśmy nie troszczyli się o jakość naszych produktów? Przecież się staramy. A może źle się staramy i dlatego nam nie wychodzi? Jeśli tak, to co powinniśmy zrobić, aby naszym klientom zapewnić stały, wysoki poziom jakości produkowanego przez nas oprogramowania?

Oczywistym jest, że nie przedstawię w swoim referacie jedynego słusznego wyjaśnienia przyczyn negatywnych zjawisk powodujących słabą jakość produkowanego oprogramowania, ani też nie dam jedynie słusznej i skutecznej recepty na ich wyeliminowanie. Nawet o tym nie marzę. Pragnę natomiast podzielić się ze słuchaczami wnioskami, do których doszedłem w efekcie analizy wyników obserwacji, konfrontowaniu ich z literaturą przedmiotu oraz wymiany poglądów z kolegami po fachu.

Informacje o autorze:
Andrzej Sołowiej od prawie dziesięciu lat jest pracownikiem firmy ASSECO POLAND (dawniej SOFTBANK). W swojej pracy zawodowej zajmuje się produkcją oprogramowania. Pełniąc różne role – programisty, projektanta, architekta, analityka, kierownika – uczestniczył w wielu projektach informatycznych, a że większość z nich była realizowana przy użyciu technologii i narzędzi Oracle stąd jego związki z PLOUG. Jako zarządzany i zarządzający miał okazję osobiście przekonać się, czym jest praca w zespołach projektowych i jakie wyzwania niesie ze sobą bycie włączonym i zaangażowanym (involved and committed) w projekty.

Modelowanie, monitorowanie, optymalizacja, modelowanie… – zamknięty cykl tworzenia i wykorzysty-wania procesów biznesowych

Krzysztof Raszewski (Oracle Polska)

Abstrakt:
Oracle, jako pierwszy dostawca technologii informatycznych na polskim rynku, prezentuje kompleksowe rozwiązanie wspomagające modelowanie, symulację i deployment procesów biznesowych. Wykorzystując środowisko do modelowania procesów ARIS firmy IDS Sheer oraz Oracle BPEL Process Manager wraz z mechanizmem integrującym dwa wspomniane produkty, uzyskujemy możliwość modelowania procesów biznesowych na wysokim poziomie abstrakcji przy pomocy ARIS IDS Sheer, płynnego przejścia od definicji procesu w ARIS do opisu w standardzie BPEL i uruchomienia w środowisku Oracle BPEL Process Manager. Dzięki dwukierunkowej integracji jesteśmy w stanie dokonać modyfikacji wspomnianego procesu w środowisku deweloperskim JDeveloper i wyeksportować definicję procesu z powrotem do repozytorium ARIS’a.

Jak zbudować system zarządzania wiedzą?

Tomasz Wyrozumski (BMS Creative)

Abstrakt:
referat dotyczy hipotetycznego systemu informatycznego, który miałby wspomagać zarządzanie wiedzą w obrębie korporacji. Świadomi istnienia takich rozwiązań argumentujemy, iż nie do końca zasługują one na nazwę, którą noszą. W dalszej części analizujemy samo pojęcie wiedzy, odwołując się przy tym do koncepcji filozoficznych oraz wskazując na fundamentalne trudności w jego doprecyzowaniu. Zwracamy uwagę na związek między wiedzą a procesem poznawczym i rozważamy praktyczne znaczenie analizowania i opisywania tego procesu. W konsekwencji stwierdzamy, iż proces poznawczy powinien znaleźć odzwierciedlenie w systemach wspomagających zarządzanie wiedzą oraz próbujemy pokazać, w jaki sposób mogłoby to zostać zrealizowane.

Informacje o autorze:
Z wykształcenia fizyk, absolwent Uniwersytetu Jagiellońskiego. Doktorat w dziedzinie fizyki teoretycznej na Uniwersytecie Wiedeńskim. Od 1992 roku zajmuje się profesjonalnie informatyką, kierując firmą BMS Creative (Kraków). Uczestniczy przy tym aktywnie w komercyjnych projektach informatycznych związanych między innymi z eksploracją danych, technologią sztucznych sieci neuronowych, a także wdrożeniami systemów CRM.

RUP w zastosowaniu – IBM Rational Method Composer

Jarosław Łagowski (IBM Polska)

Abstrakt:
IBM Rational Unified Process definiuje szkielet procesów sterujących wytwarzaniem oprogramowania. Historycznie, został opracowany przez firmę Rational Software i oficjalnie opublikowany w 1998. Aktualnie, właścicielem RUP jest IBM, który w grupie Rational prowadzi rozwój zarówno samego RUPa jak i narzędzi wspomagających.

IBM Rational Method Composer jest oprogramowaniem pozwalającym zapoznać się z teorią RUP oraz przygotowywać własną kompozycję procesów poprzez wykorzystanie gotowych wzorców.

Referat ma za zadanie nie tyle przedstawienie teorii RUP, co zapoznanie słuchaczy z darmowym (w wersji trial) narzędziem będącym przewodnikiem po tej metodyce.

Informacje o autorze:
Absolwent Wydziału Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego (1992). Od lipca 1992 zatrudniony w firmie UNIDATAX jako programista, później jako administrator baz danych. Od grudnia 1994 w IFS Poland jako programista, następnie na stanowisku specjalisty ds. Oracle. Od maja 2000 w IBM Polska jako Kierownik Asysty Technicznej.

Od marca 2002 w IBM Polska jako z/OS Services Engineer. Aktualnie w IBM Polska, dział: IBM Technology Services, stanowisko: IT Advisory Specialist

Działanie dla korzyści i aspiracji, działanie dla uniknięcia problemów – dwa rodzaje motywacji. Warunki dobrej współpracy osób o tak różnych strategiach działania

Iwona D. Bartczak (Business Dialog)

Abstrakt:
Można pokusić się o opinię, że są dwa główne rodzaje motywacji. Jedni ludzie są nakierowani na osiągnięcie celu, na zrealizowanie zamierzenia, na zaspokojenie swoich aspiracji. Inni ludzie są nakierowani na unikanie problemów, na minimalizowanie działań niosących ryzyko, na podejmowanie działań dopiero wtedy, gdy są absolutnie konieczne i przemyślane. Jedni i drudzy mogą być tak samo skuteczni i tak samo odnosić sukcesy. Ale trzeba pamiętać, że każdy z nich w innym rodzaju pracy.

Ludzie nakierowani na cel potrzebują wymiernej pracy, w której są stale oceniani, nagradzani za określone wyniki, umieszczani w rankingach, uczestniczą w konkursach. Lubią się ścigać ze sobą, z innymi. Wiedzą co chcą i to ich motywuje. Nie ma sensu ich za nic karać, raczej pokazać jakieś ambitne zadanie, które wyzwoli ich energię i kreatywność. Oczywiście, ich słabością jest brak umiejętności przewidywania zagrożeń, analizy możliwych ryzyk, czy obawa przez popełnieniem błędu.

Na te stanowiska, na których ważne jest szybkie wykrywanie możliwych zagrożeń czy błędów, należy kierować osoby, które widząc nowe zadanie czy projekt, myślą przede wszystkim o tym, co złego może się zdarzyć w trakcie jego realizacji, co może go opóźnić czy wręcz uniemożliwić. Takie osoby wcale nie będą śpieszyć się z wykonaniem nowej pracy, nagroda nie będzie ich motywować. Dopiero wskazanie, co złego je spotka, jeśli nie podejmą działania, zmusi je do aktywności.

W każdym zespole znajdują się ludzie o tych dwóch typach motywacji. Całe szczęście, że tak jest, ponieważ ich współpraca pozwala omijać rafy i wysoko mierzyć. To, czego brakuje jednym, mają drudzy. Kłopot jednak w tym, że nie zawsze potrafią ze sobą współpracować. Ludzie silnie motywowani celem czy korzyścią uważają tych drugich za malkontentów, ludzi złej woli, nieudaczników. Niecierpliwią się i szybko zniechęcają do nich. Dla odmiany ludzie zorientowani na unikanie problemów uważają swoich motywowanych celem kolegów za nieodpowiedzialnych narwańców, niedouczonych dyletantów, ryzykantów. Jeśli nie potrafią ich przekonać o potrzebie powolności i ostrożności, to po prostu się zamykają, nic nie mówią i stosują coś w rodzaju sabotażu.

W referacie opowiemy o tym, jak skutecznie i z sympatią współpracować z ludźmi, którzy prezentują zupełnie inny niż nasz typ osobowości.

Informacja o autorze:
Business Dialog jest innowacyjnym wydawnictwem, które najpierw buduje społeczności wokół zagadnień biznesu, ekonomii i zarządzania (kluby, stowarzyszenia, doraźne spotkania, grupy niesformalizowane), a potem przygotowuje dla nich i z nimi dedykowane produkty wydawnicze – elektroniczne i papierowe oraz narzędzia do dzielenia się wiedzą i refleksją. Działa obecnie Salon Business Dialog, Klub Dyrektorów Finansowych „Dialog”, CIO Business Meeting Point, Klub Inicjatyw Biznesowych „Inspirations”. Business Dialog wydaje co miesiąc biuletyn elektroniczny www.dialogbulletin.eu. Partnerem Business Dialog jest www.dyrekcja.pl

Twórcą i właścicielem Business Dialog jest Iwona D. Bartczak, przez 11 lat dziennikarz i redaktor m.in. tygodnika Computerworld wydawanego przez IDG, potem redaktor naczelny magazynów: CXO Magazyn Kadry Zarządzającej, CFO Magazyn Finansistów i CIO Magazyn Dyrektorów IT (do 2005 roku), również w ramach IDG. Autorka setek artykułów na temat zarządzania i biznesu, kilkunastu programów badawczych w tym zakresie, a także organizator lub prelegent setek konferencji i spotkań biznesowych.

Ta sama technologia, różne rezultaty – „Jeśli żołnierze na polu walki mają ten sam sprzęt, to jak ten sprzęt daje przewagę jednemu z nich?”

Jerzy Bielec (Asseco Systems)

Abstrakt:
To, jak się wykorzystuje technologie, jest kluczowe dla wizerunku i uzyskiwania przewagi konkurencyjnej firmy na rynku. Jest wiele firm z tego samego obszaru, które używają tych samych technologii, a mimo to osiągają zupełnie inne rezultaty. Dobrze wprowadzone systemy dają i będą dawały strategiczną przewagę firmom. Poprawnie wprowadzone nowe procesy, upgrade’y, podnoszące efektywność i produkcyjność, maksymalizują cele biznesowe oraz napędzają firmę do przodu – są to najważniejsze elementy sukcesu we wdrażaniu aplikacji komputerowych.

Informacje o autorze:
Dyrektor ds. Informatyki w Asseco Systems. Założyciel firmy konsultingowej i doradczej Jerzy Bielec IT Management, specjalista w zakresie zarządzania organizacjami IT, budowania strategii IT, zarządzania projektami informatycznymi oraz budowania polityki bezpieczeństwa informacji. Ukończył Akademię Górniczo-Hutniczą, Wydział Odlewnictwa oraz podyplomowe studia w zakresie fizyko-chemicznych metod analiz i zarządzania biznesem na AGH, a także wiele szkoleń w dziedzinie różnych obszarów informatyki w USA. Doświadczenie informatyczne zdobywa od 1985 r. Swoje doświadczenie zawodowe zdobywał pracując na stanowisku szefa informatyki ds. technicznych i operacyjnych w kopalni złota Newmont Gold w USA, jako dyrektor IT w Pepsi Cola International i Pepsi Cola General Bottlers w Polsce oraz Application Manager w krajach Europy Centralnej (Węgry, Czechy, Słowacja i Polska), dyrektor IT i członek Zarządu w Office Depot, dyrektor IT w PKN ORLEN, jako szef RN w telekomunikacyjnej spółce Petrotel.

Modelowanie rzeczywistości ekonomiczno-prawnej

Jacek Martinek, Czesław Jędrzejek (Politechnika Poznańska)

Abstrakt:
Celem projektu omówionego w referacie jest opracowanie i przetestowanie procedur automatycznego wnioskowania o możliwości popełnienia przestępstwa na podstawie zgromadzonych dowodów.

Przesłanką do projektu była koncepcja poprawy działania aplikacji analitycznych w policji. Punktem wyjścia były istniejące przepisy prawne, procedury i istniejące zasoby: systemy policyjne i rejestry.

Zadaliśmy następujące pytania:

  • Na ile zwiększyłaby się zdolność analityczna i przygotowanie oskarżenia, gdyby dokumentacja sprawy FOZZ była zgromadzona w postaci elektronicznej (semantycznej) – dane w komputerze posiadają znaczenie kontekstowe.
  • W jakich warunkach zapytanie da się zrealizować technicznie i zgodnie z prawem, na przykład: znajdź osoby we wszystkich przetargach, w których osoba decyzyjna w firmie zamawiającej jest powiązana z dostawcą (więzy rodzinne, wcześniejsze biznesowe, etc.).

System AFIZ (Analizator Faktów i Związków), działa w zintegrowanym środowisku baz wiedzy, relacyjnych baz danych, oraz maszyn wnioskujących.

Bazy wiedzy zawierają bardziej złożone modele danych w porównaniu z tzw. relacyjnymi bazami danych, które stanowią podstawę większości współczesnych systemów informatycznych. W porównaniu z wyszukiwarkami, nasz system obejmuje nieporównanie węższy zakres rzeczywistości, ale opisuje go dokładniej, w sposób semantyczny, czyli oddający znaczenie. Opis faktów i relacji jest oparty na rachunku zdarzeń, przedstawiając opis faktów na najniższym poziomie i umożliwiając planowanie. W przeciwieństwie do systemów wnioskujących wprzód, system umożliwia także inne formy wnioskowania np. abdukcję i wskazywanie na dane brakujące w modelu.

Zdroworozsądkowość polega na uproszczonym opisie, ale takim aby można było zadawać pytania ściśle związane z pracą użytkownika – analityka policji, np. czy coś jest podejrzane lub karalne wg określonej kwalifikacji kodeksu karnego. Wymaga to konstrukcji hierarchii modeli, które pozwalają określić role agentów (wspólników) i ich wzajemne interakcje i kwantyfikację tzw. flag ostrzegawczych (red flags) odnośnie faktów. Modele te pozwolą odpowiedzieć na pytania w rodzaju: „czy wspólnik jest zamieszany w pranie pieniędzy?” lub „czy agenci działają w zmowie” (od czego zależy kwalifikacja czynu).

Na najwyższym poziomie hierarchii system interpretuje poprawnie pojęcia prawne, np. „co to jest duża wartość przestępstwa” (obecnie 200 krotność kwoty bazowej – najniższego miesięcznego wynagrodzenia), „czy ktoś popełnił określone przestępstwo? – handlarz narkotyków nie jest sprawcą prania pieniędzy” oraz przypisuje czynom kwalifikację prawną.

Pod względem wnioskowania maszyna wnioskująca systemu AFIZ w szeregu aspektach powinna mieć możliwości równe lub większe niż najlepszy system badawczy FF POIROT (projekt europejski zakończony w 2005 r.) i komercyjny program analityczny: Analyst’s Notebook wraz z iBase.

Projekt jest realizowany w ramach Polskiej Platformy Bezpieczeństwa Wewnętrznego.

Informacje o autorach:
Prof. dr hab. inż. Czesław Jędrzejek – w początkowym okresie pracy związany z AGH i UJ w Krakowie. Przez okres 10 lat odbywał staże naukowe i pracował jako Visiting Professor kolejno na kilku uczelniach w USA. W roku 1994 związał się Francusko-Polską Wyższą Szkołą Nowych Technik Informatyczno-Komunikacyjnych (EFP) w Poznaniu. W latach 1999-2005 zajmował stanowisko Wiceprezesa Zarządu firmy ITTI w Poznaniu. Jest autorem lub współautorem około 150 publikacji. Kierował kilkudziesięcioma projektami dla wiodących operatorów oraz dostawców sprzętu telekomunikacyjnego w Polsce w zakresie ewolucji sieci i usług, inżynierii ruchu w sieciach teleinformatycznych oraz wykonania, integracji i wdrożenia systemów informatycznych. Od 2003 r. zajmuje stanowisko profesora w Instytucie Automatyki i Inżynierii Informatycznej Politechniki Poznańskiej. Realizował kilka projektów europejskich dotyczących aplikacji informatycznych.

Wdrażanie zmian na wielu bazach Oracle jednocześnie w środowiskach heterogenicznych (na przykładzie Solaris, Linux, Windows)

Marek Biliński (GSK Services Sp. z o.o.)

Abstrakt:
Referat ma przybliżyć automatyzację masowych zmian na bazach danych Oracle. Zaprezentowany zostanie przykładowy zestaw skryptów w języku Perl (m.in. moduły: Expect i DBD) wraz konfiguracją przykładowych zmian, które zostaną zaimplementowane w wirtualnym heterogenicznym środowisku (Solaris, Linux, Windows 2003, Oracle 8i, 9i, 10g). Przy implementacji będą wykorzystane narzędzia OpenSource (m.in, SVN, OpenSSH, Samba – winexe).

W ramach implementacji procesu masowych zmian zostaną omówione etapy: analiza obszarów dla masowych zmian – zdefiniowanie potrzeb i wymagań, analiza opłacalności (w tym ryzyka) implementacji, inżynieria automatyzacji danego procesu, implementacja testowa w „piaskownicy”, planowanie faz i implementacja, kolejno przez systemy deweloperskie, testowe i produkcyjne.

Informacje o autorze:
Obecnie Analityk Wsparcia Systemów SAP BASIS (w zespole baz danych) w Centrum Technicznym będącym ostatnią linią wsparcia dla oddziałów GlaxoSmithKline na całym świecie. Pracuje w kilkuosobowym zespole, który administruje m.in. ponad 800 bazami danych w tym ponad 300 bazami Oracle. Głównie zajmuje się standaryzacją środowiska i upgrade’ami baz Oracle. Poprzednio pracował przy wdrożeniach systemów SAP.

System wysokiej dostępności oparty o technologię Oracle RAC i IBM pSeries

Agnieszka Czuchryta (Telekomunikacja Polska S.A.)

Abstrakt:
Od współczesnych systemów informatycznych wymagane jest, aby charakteryzowały się wysoką dostępnością i niezawodnością gwarantującą ciągłość procesów biznesowych.

Zespół specjalistów Telekomunikacji Polskiej S.A., w obszarach Oracle, AIX i Contact Center przedstawia wdrożony w 2007 roku system informatyczny obsługujący procesy biznesowe platformy raportowej oraz bazę konfiguracyjną środowiska Genesys dla Błękitnej Linii (docelowo także dla Biura Numerów oraz Wirtualnego Call Center).

Prezentacja ma na celu zademonstrowanie wykorzystanej technologii opartej o IBM System p5 z AIX w wersji 5.3 oraz Oracle 9.2.0.8 Real Aplication Clusters ze szczególnym uwzględnieniem zagadnień z obszaru sieci, systemu operacyjnego i baz danych. Omawiane będą etapy tworzenia koncepcji, implementacji rozwiązania i obecnej eksploatacji systemu. W czasie prezentacji zademonstrowane zostaną specyficzne cechy HACMP (High Availability Cluster Multi-processing), GPFS (General Parallel File System), Oracle RAC oraz backupu zaimplementowanego w oparciu o mechanizm macierzowy BCV (macierz EMC DMX3) oraz Centralny System Backupu. Wyjaśniane będą również napotkane w czasie wdrożenia błędy i problemy w tym błąd dotyczący fuzji cache’a w Oracle RAC 9.2.0.8.

Informacja o autorze:
Przedstawiająca wyniki pracy zespołu jest Głównym Specjalistą Infrastruktury Oracle w TP.

Problemy SQL Injection w bazach danych Oracle

Michał Agata, Adam Pelikant (Politechnika Łódzka)

Abstrakt:
Metody SQL Inject są coraz większym zagrożeniem dla bezpieczeństwa informacji przechowanych w bazach danych Oracle. Metody te są coraz regularniej omawiane na listach dyskusyjnych związanych z bezpieczeństwem, forach czy konferencjach. Jak dotąd napisano wiele dobrych prac na temat SQL Injection i kilka o bezpieczeństwie bazy danych Oracle, ale niewiele z nich opisywało stosowanie techniki SQL Inject w zależności od oprogramowywania bazy danych. Ten referat postara się położyć nacisk na badanie metod SQL Injection oraz metodykę ataków na bazę danych Oracle. Celem referatu jest uchronienie użytkowników Oracle od niebezpieczeństw związanych z SQL Inject’em i pokazanie prostej drogi obrony przed tymi atakami tego typu.

Oracle jest olbrzymim i skomplikowanym produktem. SQL Inject może być stosowany do wielu z jego modułów, języków i API, tak więc referat jest wprowadzeniem do głębszych badań problemu. Postaram się pokazać główne trendy technik SQL Inject, omówić je i wskazać rozwiązania, które mogą pomóc w zabezpieczaniu bazy Oracle.

Informacje o autorach:
Adam Pelikant jest Profesorem, na co dzień pracującym w Instytucie Mechatroniki i Systemów Informatycznych Politechniki Łódzkiej. Michał Agata jest studentem studiów doktoranckich w Instytucie Mechatroniki i Systemów Informatycznych Politechniki Łódzkiej. Programista, tworzący oprogramowanie oparte o bazy danych Microsoft SQL Server, Oracle oraz – w wersji Unix – PostGreSQL. Biegła znajomość C++ oraz VC++ na platformie .NET. Administrator baz danych oraz sieci, specjalista bezpieczeństwa sieci.

Neuronowy układ szyfrujący

Piotr Kotlarz (UKW Bydgoszcz)

Abstrakt:
Referat ten to kontynuacja rozważań prowadzonych na temat budowy neuronowego układu szyfrującego dającego możliwości realizacji różnych symetrycznych algorytmów szyfrujących. Tematyka ta była już prezentowana na konferencji PLOUG’06, wtedy prezentowane były dopiero pierwsze koncepcje i pomysły. Na konferencji PLOUG’07 chcemy zaprezentować wyniki badań eksperymentalnych oraz dyskusję bezpieczeństwa proponowanego rozwiązania. Jak zwykle postaramy się osadzić treść wykładu, w tematyce bezpieczeństwa baz danych ze względu na charakter konferencji. Poczynione też zostaną pewne wprowadzenia pojęć podstawowych z teorii informacji, jednak tylko te, których rozumienie niezbędne będzie do przyswojenia prezentowanego zagadnienia.

Informacje o autorze:
Piotr Kotlarz stopień magistra uzyskał w 2002 roku na Akademii Bydgoskiej, specjalność Technika Komputerowa. Od 2003 roku Asystent w Instytucie Mechaniki Środowiska i Informatyki Stosowanej UKW, gdzie kierował projektami z zakresu pogłębiania specjalizacji jednostki, bierze udział w badaniach naukowych oraz w pracy dydaktycznej. Wyróżniony nagrodą zespołową Rektora UKW II stopnia za badania naukowe. Od 2005 roku doktorant IPPT Polskiej Akademii Nauk.

Zainteresowania naukowe: kryptografia, bezpieczeństwo informatyczne, sztuczna inteligencja. Autor i współautor wielu prac naukowych publikowanych na konferencjach krajowych i międzynarodowych. Autor kilku referatów popularno-naukowych wygłoszonych na konferencjach branżowych. Autor oraz współredaktor dwóch pozycji książkowych.

W kręgach zainteresowań leży: nowoczesna technologia, biznes i ekonomia, historia nauki. Hobby: turystyka górska (czynna), gotowanie (kuchnia orientalna i polska), literatura popularno-naukowa…

Autor posiada również bogate doświadczenie poza akademickie w zakresie administrowania, projektowania i budowania sieci informatycznych.

Systemy zarządzania tożsamością w praktyce

Grzegorz Suchodolski, Jarosław Stakuń (Oracle Polska)

Abstrakt:
Utrzymanie kontroli nad dostępem użytkowników do zasobów informatycznych firmy staje się coraz bardziej skomplikowanym procesem. Otwarcie firm na operacje wykonywane przez klientów zewnętrznych, rozwój usług internetowych, powiększanie infrastruktury IT wspomagającej warstwę biznesową – wszystko to sprawia, że kwestia zapewnienia szybkiego dostępu do właściwych zasobów na odpowiednim poziomie uprawnień, jest jednym z podstawowych wyznaczników sprawności biznesowej firmy. Konsekwencją rozwoju jest również znaczny wzrost ryzyka związanego z nieautoryzowanym i niekontrolowanym dostępem do informacji. O takich incydentach nie słyszy się zbyt często, ponieważ instytucje nie są zainteresowane publikowaniem wiadomości o niepożądanych działaniach, np. ze względu na dobre imię, zaufanie klientów, renomę itp. Problem jednak istnieje, a firmy coraz częściej zdają sobie sprawę z konieczności wdrożenia odpowiednich narzędzi, dzięki którym usprawniona zostanie ta część zarządzania bezpieczeństwem informacji.

Podczas referatu zostaną zaprezentowane produkty Oracle służące do zarządzania tożsamością oraz przykłady ich zastosowania w praktyce.

Informacje o autorach:
Jerzy Suchodolski pracuje jako Dyrektor ds. systemów Zarządzania Tożsamością w firmie Oracle i jest odpowiedzialny za rozwój Oracle Identity Management w regionie Europy Centralnej i Wschodniej. Absolwent Oxford Brookes University, związany z firmą Oracle od 1999 roku.

Jarosław Stakuń pracuje jako konsultant ds sprzedaży w firmie Oracle. Studiował Informatykę na Uniwersytecie Wrocławskim. W firmie Oracle jest odpowiedzialny za wsparcie sprzedaży systemów Zarządzania Tożsamością w regionie Europy Centralnej i Wschodniej.

Analiza porównawcza systemów hurtowni danych na przykładzie Oracle Warehouse Builder i Microsoft Analysis Services

Piotr Jarmuż (GSK Services)

Abstrakt:
Celem referatu jest prezentacja możliwości następujących produktów z klasy hurtowni danych: Oracle Warehouse Builder w wersji 10.2.0.2 dla SunOS 5.9 oraz Microsoft Analysis Services z pakietu MS SQL Server 2005 dla systemu MS Windows Server 2003. Charakterystyka produktów przedstawiona zostanie metodą analizy porównawczej, w części teoretycznej na podstawie dokumentacji obu produktów i w części praktycznej, pokazując rozwiązania typowych dla hurtowni danych zagadnień, w sposób najefektywniejszy dla każdego z systemów. Ponadto pokazana zostanie krótka historia i ewolucja obu pakietów, ogólna architektura systemu, typowe interfejsy współpracujące ze środowiskiem, wymagania systemowe. Na koniec przedstawiony zostanie prawdopodobny scenariusz dalszej ewolucji obu systemów w dobie coraz większego głodu informacyjnego na tle coraz większego zalewu surowych danych.

Informacja o autorze:
Piotr Jarmuż w latach 1991-1993 studiował na Politechnice Poznańskiej na kierunku Elektrotechnika. W latach 1993-1996 kontynuował studia w EFP – Francusko-Polskiej Wyższej Szkole Technik Informatyczno-Komunikacyjnych w Poznaniu. W 1995 roku odbył półroczny staż w instytucie badawczo rozwojowym Forschung und Technik Daimler-Benz w Berlinie. Stopień magistra inżyniera uzyskał w 1996 roku w dziedzinie systemów rozproszonych. Od 1998 roku pracował na stanowisku programisty aplikacji baz danych w firmie Praendle Software GmbH w Berlinie. Od roku 2000 pracował jako kierownik polskiej grupy programistów przy projekcie Messe Frankfurt Online w Bertelsman Nionex w Guetersloh w Niemczech. Od 2002 do 2004 jako administrator i deweloper baz danych Oracle w firmie ASCO GmbH w Braunschweig, Niemcy. Po powrocie do Polski przez pół roku pracował jako konsultant w firmie DGA S.A. w Poznaniu. Do końca 2007 roku w ITTI na stanowisku konsultanta realizował projekty związane z analizą, projektowaniem i budową systemów informatycznych oraz z zagadnieniami bezpieczeństwa informacji. Od stycznia 2007 pracuje jako Database Analyst w GSK Technical Centre i zajmuje się administrowaniem baz danych Oracle i MS SQL Server w korporacji GSK.

Wykorzystanie interfejsu JAVA API do budowy narzędzi eksploracyjnych z wykorzystaniem Oracle Data Mining na platformie Oracle 10.2.0.1

Robert Stępniak, Adam Pelikant (Politechnika Łódzka)

Abstrakt:
W referacie przekażemy informacje o sposobach tworzenia obiektów eksploracyjnych udostępnianych przez serwer bazy danych Oracle 10g z wykorzystaniem metod i klas języka programowania JAVA. Jest to jeden z dwóch dostępnych interfejsów API o analogicznych możliwościach, jak interfejs PL/SQL API. Przedstawione również będą sposoby rozwiązania problemów konfiguracyjnych między systemami: Oracle i operacyjnym Windows XP w wersji polskiej.

Informacje o autorach:
Profesor nadzw. dr hab. inż. Adam Pelikant: jedna z najbardziej doświadczonych osób w administracji i obsłudze systemów bazodanowych na Politechnice Łódzkiej. Przewodniczący i założyciel koła naukowego o tematyce baz danych, zrzeszającego studentów chcących rozwijać swoje umiejętności i zainteresowania na tym polu. Bardzo życzliwa osoba, która często bardziej wierzy w umiejętności swych podopiecznych niż oni sami. Zawsze skory do pomocy przy rozwiązywaniu nowych problemów studentów związanych z bazami danych. Zawsze przedstawia jasno swoje cele i oczekiwania względem danej pracy, pomimo że często są to trudne zagadnienia. Nastawiony na praktyczne stosowanie nowych narzędzi i technologii informatycznych. Jego dewizą są słowa Alberta Einsteina „Rozwiązuj wszystko prosto, ale nie prościej”.

Mgr. inż. Robert Stępniak: absolwent Informatyki na wydziale Elektroniki, Elektrotechniki, Informatyki i Automatyki Politechniki Łódzkiej. Ukończył specjalizację Bazy danych i systemy ekspertowe w Instytucie Mechatroniki i Systemów Informatycznych.

Należał do koła naukowego Baz danych prowadzonego przez Profesora Adama Pelikanta, gdzie zajmował się rozwiązywaniem problemów związanych z tworzeniem „klientów” różnych baz danych – zwłaszcza Oracle i MSSQL 2000. Do jego osiągnięć na tym polu należy zbudowanie aplikacji do uploadu danych między systemami Excel, Access (dowolna wersja), MSSQL i Oracle (udostępnia tylko trudny w obsłudze SQL Loader, a dane muszą być w postaci tekstowej).

Pod koniec działalności w kole został przez Profesora Pelikanta zainteresowany narzędziem Data Mining, zaimplementowanym w Oracle 10g do eksploracji danych zgromadzonych w dużych bazach wykorzystujących algorytmy hybrydowe. Zaowocowało to stworzeniem za pomocą interfejsu Java API własnej końcówki klienckiej do budowy obiektów wyszukujących ukryte zależności między danymi z wykorzystaniem Oracle Data Mining.

Jego głównym zainteresowaniem na polu programistycznym jest tworzenie algorytmów rozwiązujących skomplikowane zagadnienia matematyczne, jak np. zalgorytmizowanie szybkiej transformaty Fourier’a, mającej bardzo wiele zastosowań w przetwarzaniu sygnałów i przy budowie filtrów.

Algorytmy selekcji atrybutów w zadaniach eksploracji danych

Ewelina Szydłowska, Włodzimierz Stanisławski (Politechnika Opolska)

Abstrakt:
W referacie przedstawiono algorytmy selekcji atrybutów oraz ich wpływ na wynik zadań eksploracji danych. Eksploracje danych wykorzystano do klasyfikacji komórek pęcherza moczowego. Klasyfikacja polega na podziale komórek na dwie grupy: zdrowe i nowotworowe. Zadanie zrealizowano w oparciu o narzędzia Data Mining oferowane przez Oracle 10g.

Informacje o autorach:
Mgr inż. Ewelina Szydłowska – absolwentka Wydziału Elektrotechniki, Automatyki i Informatyki (2005), uczestniczka studiów doktoranckich na macierzystej uczelni. Jej zainteresowania skupiają się wokół zastosowań systemów baz danych, a w szczególności analizy danych.

Dr hab. inż. Włodzimierz Stanisławski – profesor Politechniki Opolskiej, kierownik Katedry Informatyki na Wydziale Elektrotechniki, Automatyki i Informatyki.

Automatyczne generowanie zawartości bazy danych

Sebastian Wajrych, Adam Pelikant (Politechnika Łódzka)

Abstrakt:
Wszystkie projekty (internetowe, desktopowe, itd.) zawierające bazę danych borykają się na pewnym etapie z problemem braku danych. Zarówno programista-developer jak i tester chciałby sprawdzić działanie nowo dodanej funkcjonalności. Oczywiście prawdopodobnie obaj będą zmuszeni uzupełnić bazę porcją danych potrzebnych do sprawdzenia fragmentu programu, którym aktualnie się zajmują. Takie rozwiązanie ma dwa poważne minusy. Po pierwsze: z dużym prawdopodobieństwem programista nie uczestniczył w procesie analizy i wygenerowane przez niego dane w większości nie będą odpowiadały danym docelowym obsługiwanego biznesu, np. Order1, Order2, Order3. Drugim, równie poważnym problemem jest brak spójności danych, tzn. że Johna Smitha znajdziemy w jednym module jako konsultanta Call Center, a w drugim jako dyrektora tej samej jednostki. Takie dane kompletnie nie nadają się do prezentacji aplikacji klientowi. Nie może on zobaczyć działania systemu w swoim kontekście, a co za tym idzie może odczuć, że nie rozumiemy jego biznesu, zatem nie będziemy w stanie spełnić jego wymagań. Dodatkowo straciliśmy cenne zasoby dla wygenerowania bezużytecznych danych.

Kolejnym problemem jest brak możliwości wykrycia i usunięcia wielu błędów zarówno na etapie developmentu jak i na etapie testów. I w tym przypadku również tracimy cenne zasoby.

Rozwiązaniem mógłby być system automatycznej generacji danych. Aby mógł on zaspokoić w pełni nasze potrzeby, powinien spełnić kilka podstawowych założeń:

Dane w jak największym stopniu muszą odpowiadać danym realnym

Przykładowo, jeżeli przygotowujemy polską witrynę zajmującą się sprzedażą „topowej” muzyki, to średnia wieku jej użytkowników wyniesie 20 lat z odchyleniem standardowym 5 lat, a użytkownicy o nazwisku Nowak będą stanowić 7%, a Kowalski 5% wszystkich użytkowników serwisu. Takie informacje możemy uzyskać bezpośrednio od konsultantów, na podstawie badań rynku lub wykorzystując istniejące bazy danych klienta.

System musi być wydajny

Generacja dużej ilości danych jest czasochłonna. Dlatego należy tak opracować algorytmy i ich implementację, aby zminimalizować czas generacji. Ponadto powinien on być możliwy do obliczenia i w najgorszym przypadku zależeć liniowo od liczby generowanych danych.

System musi umożliwiać łatwą rozbudowę

W przypadku tworzenia tego typu systemu nie jest możliwe na etapie analizy przewidzenie wszystkich typów oraz sposobów generowania danych. Rozbudowa może polegać na przykład na dodaniu tak prostej funkcjonalności, jak nowy typ rozkładu statystycznego obsługiwany przez system. Jeżeli chcielibyśmy do generacji danych wykorzystać bazę danych klienta bądź serwis zewnętrzny, system również musi dawać możliwość łatwego dodania takiego rozwiązania.

System musi wystawiać API

W celu lepszej integracji z narzędziami developerskimi takimi, jak np. Eclipse, system musi wystawiać API umożliwiające wykonanie większości operacji. Na jego podstawie będzie można stworzyć odpowiednie wtyczki.

Informacje o autorach:
Mgr inż. Sebastian Wajrych, absolwent Wydziału Elektrotechniki, Elektroniki, Informatyki i Automatyki Politechniki Łódzkiej kierunku Informatyka, specjalność Bazy danych i systemy ekspertowe.

Profesor nadzw. dr hab. inż. Adam Pelikant: jedna z najbardziej doświadczonych osób w administracji i obsłudze systemów bazodanowych na Politechnice Łódzkiej. Przewodniczący i założyciel koła naukowego o tematyce baz danych, zrzeszającego studentów chcących rozwijać swoje umiejętności i zainteresowania na tym polu. Bardzo życzliwa osoba, która często bardziej wierzy w umiejętności swych podopiecznych niż oni sami. Zawsze skory do pomocy przy rozwiązywaniu nowych problemów studentów związanych z bazami danych. Zawsze przedstawia jasno swoje cele i oczekiwania względem danej pracy, pomimo że często są to trudne zagadnienia. Nastawiony na praktyczne stosowanie nowych narzędzi i technologii informatycznych. Jego dewizą są słowa Alberta Einsteina „Rozwiązuj wszystko prosto, ale nie prościej”.

Wnioskowanie hybrydowe w relacyjnej bazie danych, wykorzystujące ontologię OWL wzbogaconą regułami języka SWRL

Jarosław Bąk, Czesław Jędrzejek (Politechnika Poznańska)

Abstrakt:
Niniejszy referat przedstawia środowisko semantycznego przetwarzania danych z wykorzystaniem relacyjnej bazy danych, ontologii i reguł stanowiących bazę wiedzy oraz zaproponowanego przez autorów hybrydowego narzędzia wnioskującego. Hybryda składa się z silników wnioskujących wstecz oraz w przód, zadających zapytania na bazie ontologii. Oba silniki zostały zaimplementowane w języku skryptowym Jess Language. Mechanizm wnioskowania jest realizowany na bazie pojęć i właściwości zdefiniowanych w ontologii zapisanej w języku OWL oraz na bazie reguł operujących na pojęciach, wyrażonych w języku regułowym SWRL. Wnioskowanie wstecz służy do pobierania informacji z relacyjnej bazy danych. Pobrane dane odwzorowywane są w ustrukturalizowanej bazie wiedzy. Mechanizm wnioskowania w przód służy natomiast wykryciu zależności pomiędzy wczytanymi danymi, uwzględniając ograniczenia zdefiniowane w regułach ontologicznych, które nie mogły być brane pod uwagę w mechanizmie wnioskowania wstecz. Nie posiada on żadnej interakcji z relacyjną bazą danych. Operuje natomiast na pojęciach i regułach znajdujących się w bazie wiedzy, zawierającej również wczytane wcześniej dane. Hybryda podejmuje decyzję dotyczącą mechanizmu wnioskowania. Jeśli silnik wnioskujący w przód nie potrafi udzielić odpowiedzi, zapytanie jest kierowane do silnika wnioskującego wstecz, które stara się ją znaleźć bazując na danych relacyjnych oraz regułach i pojęciach ontologicznych.

Zaproponowana analiza, bazująca na formalnie zdefiniowanej semantyce danych, została zaimplementowana w bibliotece narzędziowej SDL (ang. Semantic Data Library). Biblioteka ta odpowiada za automatyczną integrację relacyjnych baz danych, ontologii i reguł silnika Jess, oraz pozwala na zastosowanie wyżej wspomnianej metody wnioskowania hybrydowego. Ze względu na wstępny charakter prac nad biblioteką, przedstawione zostaną również ograniczenia przyjęte w procesie transformacji oraz zagadnienia wydajności wnioskowania. Zaprezentowany zostanie przykład zastosowania analizy semantycznej realizowanej za pomocą ontologii opisującej relacje rodzinne, zawierającej zarówno pojęcia jak i reguły. Przedstawione zostaną również perspektywy rynkowe zaproponowanych technologii semantycznych.

Informacje o autorach:
Prof. dr hab. inż. Czesław Jędrzejek – w początkowym okresie pracy związany z AGH i UJ w Krakowie. Przez okres 10 lat odbywał staże naukowe i pracował jako Visiting Professor kolejno na kilku uczelniach w USA. W roku 1994 związał się Francusko-Polską Wyższą Szkołą Nowych Technik Informatyczno-Komunikacyjnych (EFP) w Poznaniu. W latach 1999-2005 zajmował stanowisko Wiceprezesa Zarządu firmy ITTI w Poznaniu. Jest autorem lub współautorem ponad 150 publikacji. Kierował kilkudziesięcioma projektami dla wiodących operatorów oraz dostawców sprzętu telekomunikacyjnego w Polsce w zakresie ewolucji sieci i usług, inżynierii ruchu w sieciach teleinformatycznych oraz wykonania, integracji i wdrożenia systemów informatycznych. Od 2003 r. zajmuje stanowisko profesora w Instytucie Automatyki i Inżynierii Informatycznej Politechniki Poznańskiej.

Realizował kilka projektów europejskich dotyczących aplikacji informatycznych.

Mgr inż. Jarosław Bąk jest pracownikiem Instytutu Automatyki i Inżynierii Informatycznej Politechniki Poznańskiej. W kręgu jego zainteresowań znajduje się szereg zagadnień związanych z semantyką danych, technologiami semantycznymi oraz przetwarzaniem metadanych.

Konstrukcja schematów relacyjnych dla danych OWL z wykorzystaniem silników wnioskujących

Maciej Falkowski, Czesław Jędrzejek (Politechnika Poznańska)

Abstrakt:
Problem reprezentacji danych w bazach relacyjnych jest kluczowy dla większości aplikacji semantycznych. W artykule zaproponowano system, który pozwala automatycznie budować schematy relacyjne dla danych opisanych ontologiami OWL (Web Ontology Language) oraz wydajnie je odpytywać z użyciem reguł do definiowania relacji, których nie da się wyrazić w OWL. W procesie wstępnego przetwarzania ontologii wykorzystuje się silnik wnioskujący w logice deskrypcyjnej. Składowanie danych semantycznych RDF (Resource Description Framework) w bazach danych jest tematem wielu prac, które omawiają różne metody tworzenia schematów relacyjnych na bazie ontologii. Bardzo istotnym problemem jest też odpytywanie danych semantycznych. Zapytania takie można podzielić na dwa rodzaje. Pierwszy to zapytania o terminologię, opisaną przez ontologię. Przykładem takiego zapytania jest „czy klasa A jest podklasą klasy B?”. Ten rodzaj zapytań operuje na małej ilości danych (samej ontologii), wymaga jednak złożonych reguł przetwarzania. Drugi rodzaj zapytań to zapytania uwzględniające instancje. Przykładem jest zapytanie „wybierz te instancje klasy A, które mają właściwość P o wartości X”. W tym przypadku rozmiar danych może być ogromny, a przetwarzanie polega na wyszukaniu danych spełniających określone zapytaniem kryteria. Pierwszy rodzaj zapytań wymaga stosowania silników wnioskujących, które jednak są mało skalowalne i nie nadają się do przetwarzania dużych ilości danych. Najbardziej efektywnym narzędziem do wyszukiwania odpowiedzi na pytania drugiego rodzaju są bazy danych. Pojedyncze pytania mogą zawierać elementy obydwu rodzajów.

Referat przedstawia pewne podejście do tworzenia schematów relacyjnych dla danych OWL, które łączy siłę silników wnioskujących z siłą relacyjnych baz danych. Podejście to ukierunkowane jest na umożliwienie łatwego i szybkiego odpytywania powstałych schematów z uwzględnieniem informacji ontologicznych. W tym celu we wstępnym etapie wykorzystuje się zewnętrzny silnik wnioskujący (np. RacerPro). Zadaniem systemu wnioskującego jest utworzenie kompletnej taksonomii pojęć (klas i właściwości) danej ontologii. Tak powstałe taksonomie są następnie używane do utworzenia widoków bazodanowych, w definicjach których zawarte są zależności pochodzące z ontologii. Dzięki temu stwierdzenie przynależności indywiduum do danej klasy sprowadza się do sprawdzenia, czy jest ono obecne w widoku odpowiadającym tej klasie. Takie podejście jest jednak niepełne, gdyż uwzględnia jedynie przynależność bytów do klas wyrażoną explicite. Brakuje w tej metodzie wykorzystania informacji ontologicznych, wyrażających przynależność do klas bazującą na restrykcjach właściwości, np. „do klasy A należą te byty, które mają właściwość X o wartości Y”. W referacie pokazano, jak takimi dodatkowymi informacjami można uzupełnić definicje widoków związanych z klasami, aby uwzględniały pełnię informacji ontologicznej. Cały proces tworzenia schematów relacyjnych i uzupełniania ich widokami odpowiedzialnymi za wnioskowanie daje się w pełni zautomatyzować. Podobnie transformacja danych z RDF/XML do postaci relacyjnej może być wykonywana automatycznie. Kolejnym zagadnieniem jest odpytywanie tak powstałej struktury. Dzięki algorytmowi translacji możliwe jest formułowanie zapytań w języku np. SPARQL. Takie zapytania są automatycznie przetwarzane na ekwiwalentne zapytania SQL i efektywnie wykonywane w bazie danych.

Informacje o autorach:
Prof. dr hab. inż. Czesław Jędrzejek – w początkowym okresie pracy związany z AGH i UJ w Krakowie. Przez okres 10 lat odbywał staże naukowe i pracował jako Visiting Professor kolejno na kilku uczelniach w USA. W latach 1999-2004 zajmował stanowisko Wiceprezesa Zarządu firmy ITTI w Poznaniu. Jest autorem lub współautorem około 150 publikacji. Kierował kilkudziesięcioma projektami dla wiodących operatorów oraz dostawców sprzętu telekomunikacyjnego w Polsce w zakresie ewolucji sieci i usług, inżynierii ruchu w sieciach teleinformatycznych oraz wykonania, integracji i wdrożenia systemów informatycznych. Od 2003 r. zajmuje stanowisko profesora w Instytucie Automatyki i Inżynierii Informatycznej Politechniki Poznańskiej w Poznaniu. Realizował kilka projektów europejskich dotyczących aplikacji informatycznych.

Mgr inż. Maciej Falkowski k jest pracownikiem Instytutu Automatyki i Inżynierii Informatycznej Politechniki Poznańskiej. W kręgu jego zainteresowań znajduje się szereg zagadnień związanych z semantyką danych, technologiami semantycznymi oraz przetwarzaniem metadanych.