Posts Tagged: ‘bi’

Speed up SAP Netweaver Business Intelligence queries using IBM PureData System for Analytics (Part 2)

23. Juni 2015 Posted by Ralf Götz

Imagine that you’re the CIO of a big retailer with both an online and store presence. Christmas season is coming, and last year around this time, your critical business processes almost broke because of the heavy demand for deep analytics and frequent reporting during the high season. What would you do?

Bild

In the first post of this series, I described an alternative reporting and analytics solution to SAP Netweaver Business Intelligence, based on IBM PureData System for Analytics, powered by Netezza technology. In order to provide business users with the analytical performance they need to keep up with the growing demand for more data, faster reports, deeper analytics and less cost.

The challenge

A large retail client in Germany had exactly the problem I introduced in the beginning of this post. Their SAP Netweaver Business Intelligence system is essential for certain business critical processes such as month end closure, inventory and demand planning. Under normal conditions, the reporting and analytical workload can be processed in parallel to the more transaction-oriented processes.

But every Monday just before and just after holiday seasons such as Christmas, the system came very close to its maximum capacity—sometimes to capacity overload.

The evaluation process

What would be the best way to tackle the challenge? First, the client needed to evaluate the technical fesibility, the time it would take for a successful implementation and the associated costs.After the evaluation of the different possible approaches, such as upgrading SAP Netweaver Business Intelligence to the latest release, implementing SAP HANA or changing the underlying database out with another, the client decided to implement a sidecar solution to offload the most critical reports and analytics to reduce the workload on SAP Netweaver Business Intelligence.

The solution

The idea was to introduce a purpose built, easy-to-use, high-speed analytics data warehouse appliance that grows with the business requirements: PureData System for Analytics.

Implementation of such a sidecar solution is a best practice approach also recommended by SAP itself with their Sybase IQ columnar database.

After a one week assessment, the top three SAP Netweaver Business Intelligence reports had been identified and run by thousands of users several times every day. Removing this purely analytical workload from the system would guarantee a smooth season next Christmas.

The data (several terabytes) had been integrated with the help of a business partner using the customer’s incumbent extract, transform and load (ETL) platform, which could be connected to SAP and PureData System for Analytics.

For reporting, the client introduced IBM Cognos along with PureData System for Analytics, gaining the maximum out of the new analytics infrastructure.

The result

The most important fact is that our client survived Christmas season (and Easter as well).

Bild

Their SAP Netweaver Business Intelligence system can still serve its purpose, is running smoothly and has been very stable since then. Only the reporting and analytics run now on the sidecar PureData System for Analytics. The response time for typical queries is mostly under two seconds.

Because of the highly flexible implementation of data model and granularity within PureData System for Analytics, the client was even able to increase the frequency of some reports from monthly to weekly updates, which enabled the business users to do more with less effort in a shorter amount of time.

The retailer started the implementation in April 2013 and finished the project in September 2013, on time and on budget.

What do you think of the implementation? Are you facing similar challenges? Let’s connect and follow me on Twitter.

Speed up SAP Netweaver Business Intelligence queries using IBM PureData System for Analytics (Part 2)

23. Juni 2015 Posted by Ralf Götz

Imagine that you’re the CIO of a big retailer with both an online and store presence. Christmas season is coming, and last year around this time, your critical business processes almost broke because of the heavy demand for deep analytics and frequent reporting during the high season. What would you do?

Bild

In the first post of this series, I described an alternative reporting and analytics solution to SAP Netweaver Business Intelligence, based on IBM PureData System for Analytics, powered by Netezza technology. In order to provide business users with the analytical performance they need to keep up with the growing demand for more data, faster reports, deeper analytics and less cost.

The challenge

A large retail client in Germany had exactly the problem I introduced in the beginning of this post. Their SAP Netweaver Business Intelligence system is essential for certain business critical processes such as month end closure, inventory and demand planning. Under normal conditions, the reporting and analytical workload can be processed in parallel to the more transaction-oriented processes.

But every Monday just before and just after holiday seasons such as Christmas, the system came very close to its maximum capacity—sometimes to capacity overload.

The evaluation process

What would be the best way to tackle the challenge? First, the client needed to evaluate the technical fesibility, the time it would take for a successful implementation and the associated costs.After the evaluation of the different possible approaches, such as upgrading SAP Netweaver Business Intelligence to the latest release, implementing SAP HANA or changing the underlying database out with another, the client decided to implement a sidecar solution to offload the most critical reports and analytics to reduce the workload on SAP Netweaver Business Intelligence.

The solution

The idea was to introduce a purpose built, easy-to-use, high-speed analytics data warehouse appliance that grows with the business requirements: PureData System for Analytics.

Implementation of such a sidecar solution is a best practice approach also recommended by SAP itself with their Sybase IQ columnar database.

After a one week assessment, the top three SAP Netweaver Business Intelligence reports had been identified and run by thousands of users several times every day. Removing this purely analytical workload from the system would guarantee a smooth season next Christmas.

The data (several terabytes) had been integrated with the help of a business partner using the customer’s incumbent extract, transform and load (ETL) platform, which could be connected to SAP and PureData System for Analytics.

For reporting, the client introduced IBM Cognos along with PureData System for Analytics, gaining the maximum out of the new analytics infrastructure.

The result

The most important fact is that our client survived Christmas season (and Easter as well).

Bild

Their SAP Netweaver Business Intelligence system can still serve its purpose, is running smoothly and has been very stable since then. Only the reporting and analytics run now on the sidecar PureData System for Analytics. The response time for typical queries is mostly under two seconds.

Because of the highly flexible implementation of data model and granularity within PureData System for Analytics, the client was even able to increase the frequency of some reports from monthly to weekly updates, which enabled the business users to do more with less effort in a shorter amount of time.

The retailer started the implementation in April 2013 and finished the project in September 2013, on time and on budget.

What do you think of the implementation? Are you facing similar challenges? Let’s connect and follow me on Twitter.

Speed up SAP Netweaver Business Intelligence queries using IBM PureData System for Analytics (Part 2)

23. Juni 2015 Posted by Ralf Götz

Imagine that you’re the CIO of a big retailer with both an online and store presence. Christmas season is coming, and last year around this time, your critical business processes almost broke because of the heavy demand for deep analytics and frequent reporting during the high season. What would you do?

Bild

In the first post of this series, I described an alternative reporting and analytics solution to SAP Netweaver Business Intelligence, based on IBM PureData System for Analytics, powered by Netezza technology. In order to provide business users with the analytical performance they need to keep up with the growing demand for more data, faster reports, deeper analytics and less cost.

The challenge

A large retail client in Germany had exactly the problem I introduced in the beginning of this post. Their SAP Netweaver Business Intelligence system is essential for certain business critical processes such as month end closure, inventory and demand planning. Under normal conditions, the reporting and analytical workload can be processed in parallel to the more transaction-oriented processes.

But every Monday just before and just after holiday seasons such as Christmas, the system came very close to its maximum capacity—sometimes to capacity overload.

The evaluation process

What would be the best way to tackle the challenge? First, the client needed to evaluate the technical fesibility, the time it would take for a successful implementation and the associated costs.After the evaluation of the different possible approaches, such as upgrading SAP Netweaver Business Intelligence to the latest release, implementing SAP HANA or changing the underlying database out with another, the client decided to implement a sidecar solution to offload the most critical reports and analytics to reduce the workload on SAP Netweaver Business Intelligence.

The solution

The idea was to introduce a purpose built, easy-to-use, high-speed analytics data warehouse appliance that grows with the business requirements: PureData System for Analytics.

Implementation of such a sidecar solution is a best practice approach also recommended by SAP itself with their Sybase IQ columnar database.

After a one week assessment, the top three SAP Netweaver Business Intelligence reports had been identified and run by thousands of users several times every day. Removing this purely analytical workload from the system would guarantee a smooth season next Christmas.

The data (several terabytes) had been integrated with the help of a business partner using the customer’s incumbent extract, transform and load (ETL) platform, which could be connected to SAP and PureData System for Analytics.

For reporting, the client introduced IBM Cognos along with PureData System for Analytics, gaining the maximum out of the new analytics infrastructure.

The result

The most important fact is that our client survived Christmas season (and Easter as well).

Bild

Their SAP Netweaver Business Intelligence system can still serve its purpose, is running smoothly and has been very stable since then. Only the reporting and analytics run now on the sidecar PureData System for Analytics. The response time for typical queries is mostly under two seconds.

Because of the highly flexible implementation of data model and granularity within PureData System for Analytics, the client was even able to increase the frequency of some reports from monthly to weekly updates, which enabled the business users to do more with less effort in a shorter amount of time.

The retailer started the implementation in April 2013 and finished the project in September 2013, on time and on budget.

What do you think of the implementation? Are you facing similar challenges? Let’s connect and follow me on Twitter.

Neues IBM Redbook zum Informix Warehouse Accelerator

17. Oktober 2013 Posted by Martin Fuerderer

 

Ist die Datenanalyse in Ihrer Organisation zu langsam oder skaliert die Performance des Datenbanksystems nicht mit der Menge der zu analysierenden Daten? In diesem neuen IBM Redbook finden Sie bestimmt interessante Antworten und neue Ideen zu solchen Fragestellungen.

 

Die Vorabversion des neuen IBM Redbook "Query Acceleration for Business using Informix Warehouse Accelerator" ist unter folgender URL als PDF-Download verfügbar:

http://www.redbooks.ibm.com/redpieces/abstracts/sg248150.html?Open

 

Das Buch bietet detaillierten Einblick in die Technologie und Architektur von Informix Warehouse Accelerator. Es enthält viele Hintergrundinformationen zu Tools, Datensynchronisation und der Verarbeitung von Abfragen, sowie schrittweise Anleitungen zur Implementation der Datenanalyse mit dem Informix Warehouse Accelerator.

 

Kapitel des Buches:

  1. Introduction to Informix Warehouse Accelerator
  2. Designing data marts
  3. Designing and sizing an Informix Warehouse Accelerator environment
  4. Informix Warehouse Accelerator installation and configuration
  5. Creating Informix Warehouse Accelerator data marts
  6. Query execution
  7. Managing Informix Warehouse Accelerator data mart
  8. Informix Warehouse Accelerator server administration
  9. Use of Cognos with Informix Warehouse Accelerator
  10. Proof of concept for Informix Warehouse Accelerator
  11. Appendix: Tools for Informix Warehouse Accelerator

 

Sie haben auch die Gelegenheit, diesen Draft schon vor der Veröffent;lichung des Buches zu beurteilen. Vergeben Sie für vier Kategorien jeweils bis zu fünf Sterne. Nutzen Sie hierzu den Link "Rate this Draft", auf der obigen Internet-Seite rechts, oder gehen Sie direkt auf die Seite zur Beurteilung.

(Es wird erfreulicherweise kein login und keine e-mail Adresse benötigt, weder für den PDF-Download, noch für die Beurteilung.)


 

Informix Warehouse Accelerator: Semesterprojekt an der Hochschule Furtwangen

13. Juli 2012 Posted by Martin Fuerderer


image An der Hochschule Furtwangen hat Serbest Hammade unter der Leitung von Prof. Dr. Lothar Piepmeyer in einem Semesterprojekt mit dem etwas provokanten Titel "Die schnellste Datenbank der Welt?" die Möglichkeiten des Informix Warehouse Accelerator unter die Lupe genommen:

"Relationale Datenbanksysteme verbringen oft einen erheblichen Teil Ihrer Laufzeit damit, auf die Ergebnisse von Ein- und Ausgabeoperationen von Festplatten zu warten. Einen anderen und wesentlich performanteren Ansatz verfolgen In-Memory-Datenbanken: Sie interagieren sehr selten mit der Festplatte und halten die Daten - wie der Name schon sagt - im Arbeitsspeicher vor. Zur Seite stehen diesen Systemen moderne Komprimierungstechniken und die Entwicklung kostengünstiger großer Speichermodule. So können teilweise gewaltige Datenmengen vorgehalten werden.

Eines dieser Produkte - den Informix Warehouse Accelerator - haben wir im Laufe des Semesterprojekts "Die schnellste Datenbank der Welt?" im Wintersemester 2011/2012 geleitet von Herrn Professor Doktor Lothar Piepmeyer an der Hochschule Furtwangen untersucht."

(Zitat aus der Zusammenfassung der schriftlichen Dokumentation des Projekts)

Im Verlauf der umfangreichen Dokumentation beschreibt Serbest Hammade ausführlich, wie er mit der TPC-H Version 2.14 als Testsuite die Leistung des Informix Server in Kombination mit dem Informix Warehouse Accelerator (beide der Version 11.70.FC2) auf einem Linux-System mit einer CPU und 64 GB RAM untersucht hat. All dies fand nicht auf einem bereits eingerichteten System statt, sondern der gesamte Software-Stack musste zuerst installiert und dann auch konfiguriert werden. Da innerhalb des Semesterprojekts trotzdem genügend Zeit für die eigentlichen Leistungsmessungen blieb, wurde bewiesen, dass Installation und Konfiguration des Systems als relativ einfach einzustufen sind, und somit auch ohne die Hilfe von Informix-Spezialisten, womöglich sogar vor Ort, durchführbar sind. Es wurden sogar noch Messungen mit SQLite durchgeführt, die jedoch leider aufgrund der Unterschiede in den ausführbaren SQL-Abfragen nicht zu einem direkten Vergleich herangezogen werden konnten.

Zum Vergleich kamen somit die Werte von drei verschiedenen Messreihen:

  1. Nur Informix Server, normale Konfiguration.

    Die Informix Server Instanz wurde nicht speziell für eine Data Warehouse Umgebung konfiguriert und die Datenbank enthielt neben den Benutzerdaten auch Indexe zur Optimierung des Zugriffs auf einzelne Datensätze sowie zur Sicherstellung der Datenintegrität mittels Primär- und Fremdschlüssel. Eine solche Konfiguration wäre für OLTP typisch.

  2. Nur Informix Server als reines Data Warehouse, "fully cached".

    Um zu erreichen, dass der Informix Server alle Daten im Speicher hat und während der Abfragen keine Plattenzugriffe mehr machen muss, wurde die Datenbank ohne jegliche Indexe angelegt. Zudem musste erst eine Aufwärmphase durchlaufen werden, um durch mehrfache Abfragen alle Daten in den Bufferpool des Informix Servers zu laden, in dem der Informix Server die Daten dann halten kann.

  3. Informix Server mit Informix Warehouse Accelerator.

    Informix Server wie in a. jedoch mit dem Accelerator zur Beschleunigung der Abfragen.

Die Ergebnisse der Zeitmessungen von mehreren Messreihen wurden dann zum Vergleich in einer übersichtlichen Tabelle wie folgt zusammengefasst:

Query Konfig. a.Faktor
a. zu c.
Konfig. b.Faktor
b. zu c.
Konfig. c.
Faktor = 1
1186s5,8151s4,732s
2>9h>2700,0250s20,012s
3180s90,013s6,52s
4>4h>230,033s0,563s
5488s12,015s0,340s

Mit der Festellung, viel im Bereich der praktischen Anwendung eines Datenbanksystems und Benchmark-änlichen Leistungsmessungen desselben gelernt zu haben, kommt Serbest Hammade bezüglich der Messergebnisse zu folgendem Fazit:

"Die Messergebisse zeigen, dass der Informix Warehouse Accelerator im Gegensatz zu der optimierten Informix Instanz konstante Laufzeiten hat und bei den meisten Abfragen schneller ist. ...

Wenn Informix in kleinen oder mittelständischen Unternehmen zur Anwendung kommt, dürfte es kostengünstiger sein, Informix optimal auf das System zugeschnitten zu konfigurieren.

Für kleine Softwarelösungen lässt sich dagegen SQLite perfekt einsetzen, da es keinen eigenen Server mit eigener Konfiguration benötigt, allerdings muss die Software die Bibliothek einsetzen, um die Daten zu verarbeiten."

(Zitat aus dem Fazit)

Durchgeführt im Studium, ist dieses Semesterprojekt als beachtliche Leistung eines Studenten zu bewerten! Das Ergebnis ist treffend, wenn auch ergänzend einige Anmerkungen erlaubt seien:

  • Konfiguration b. kann dann vorteilhafter sein, wenn alle Daten in den Bufferpool passen können - was nicht unbedingt mit der Firmengrösse eines Anwenders zu tun hat.
  • Ausreichend Speicher fuer einen ausreichend grossen Bufferpool der Konfiguration b. zu haben, ist Bedingung für einen "fully cached" Betrieb des Systems. Daher mussten auch die Indexe entfernt werden, da Indexpages ansonsten die Datenpages aus dem Bufferpool wieder verdrägen und somit keinen "fully cached" Betrieb zulassen.
  • Wo Speicher nicht ausreichend vorhanden ist, da kann Informix Warehouse Accelerator sein Potential voll zur Geltung bringen, da die Daten nur in komprimiertem Zustand im Speicher gehalten werden, und dank der speziellen Kompression in vielen Fällen eine Auswertung der Daten sogar im komprimierten Zustand möglich ist.
  • Der Aufwand, ein System der Konfiguration b. dauerhaft im Zustand des "fully cached" Betriebs zu halten, kann durchaus mehr Kosten verursachen als der Einsatz des Informix Warehouse Accelerators.


Informix Warehouse Accelerator: Ein Jahr im Rückblick (3)

11. Mai 2012 Posted by Martin Fuerderer


Icon: IWA Logo TruckMit den Themen Funktionalitätserweiterungen und Ausblick möchte ich nun die Serie (siehe auch Teil 1 und Teil 2) abschliessen.

Den Originaltext finden Sie (in englischer Sprache verfasst) auf developerWorks im Blog von Fred Ho.

Funktionalitätserweiterungen

Seit Erscheinen des Informix Warehouse Accelerators vor einem Jahr haben wir einige bedeutende Features hinzugefügt. Die wichtigsten sind folgend mit jeweils einer kurzen Beschreibung aufgelistet:

  • Workload Analysis Tool
    Ermöglicht die einfache Definition von Data Marts, die auf dem Accelerator anzulegen sind, ohne Detailswissen über die Workload zu erfordern. Man lässt einfach die normale Workload laufen (mit oder ohne tatsächliche Ausführung) und lässt das Tool die Abfragen analysieren und die Data Mart Definitionen im XML Format erzeugen. Diese werden dann benutzt, um die Data Marts anzulegen und mit den Daten zu laden.
  • Datenerneuerung bei kontinuierlicher Verfügbarkeit
    Obwohl eine Studie der IDUG zeigt, dass 90% der Data Warehouses nur einmal am Tag oder weniger oft aktualisiert werden, können Kunden, die ihr Daten öfter erneuern müssen, einen zweiten Data Mart (mit komprimierten Daten) aufbauen. Durch Umschalten zwischen den zwei Data Marts zur jeweils aktuelleren Kopie kann eine bessere Datenaktualität erzielt werden, ohne zwischendurch auf die Beschleunigung verzichten zu müssen.
  • Unterstützung für Cluster
    Der Informix Warehouse Accelerator kann sowohl auf einer Standard SMP Maschine laufen, als auch auf einem Cluster System, wie es z.B. typisch für eine Blade Server Konfiguration ist. Dies ermöglicht dem Accelerator die Nutzung von noch mehr CPU cores und Speicher der beteiligten Clusterknoten verglichen mit einem Einzelsystem. Der Accelerator partitioniert die Daten von Fakttabellen effizient über die Clusterknoten hinweg und repliziert die Dimensionstabellen für optimale Performance. Die Anzahl der Coordinator- und Workerknoten des Accelerator kann entsprechend skaliert werden.
  • Partition Refresh
    In der kommenden Version 11.70.FC5 wird es zwei bedeutende Funktionalitätserweiterungen geben. Mit der derzeitigen Version des Informix Warehouse Accelerators müssen die Daten komplett neu in den Data Mart geladen werden, wenn dieser nach Datenänderungen in der Informix Server Datenbank wieder auf den neuesten Stand gebracht werden soll. Das neue Partition Refresh Feature hingegen erlaubt dem Benutzer, die Daten einzelner Partitionen (bei Informix auch Fragmente genannt) im Data Mart zu erneuern. Wurde z.B. ein Data Warehouse in Terabytegrösse schon in den Accelerator geladen und danach nur eine kleine Datenmenge (z.B. einige GB) in bestimmten Tabellenfragmenten geändert, so können die den geänderten Tabellenfragmenten entsprechenden Partitionen aus dem Data Mart im Accelerator entfernt werden, um dann gezielt nur die geänderten Tabellenfragmente als neue Partitionen wieder zu laden. Dies verkürzt die Ladezeit erheblich. Bei anderen Systemen werden solche Verfahren oft Incremental Update oder Trickle Feed genannt.
  • Das Laden von Daten von einem Informix Mach11 Secondary Server aus
    Von den Vorteilen der Informix Replikation (auch unter dem Stichwort MACH11 bekannt) kann man auch mit dem Accelerator profitieren. Z.B. kann ein Secondary Informix Server in einem MACH11-Verbund mit dem Accelerator verbunden werden, damit zur Administration des Accelerators und seinen Data Marts benutzt werden, die Daten in den Accelerator laden, und ebenso Abfragen mit dem Accelerator beschleunigen. Solch ein Secondary Server kann ein Informix HDR, RSS oder auch ein SDS Knoten im MACH11-Verbund sein. Dadurch wird eine effektive Lastverteilung erreicht, denn der Primary Informix Server muss sich nicht um den Accelerator kümmern und steht mit all seinen Ressourcen für OLTP zur Verfügung. Die Möglichkeit, solche gemischten Arbeitslasten mit ein und demselben System zu bedienen, ist einer der heiligen Grale für Datenbankmanagement.
    • HDR = High availability Data Replication (Secondary)
    • RSS = Remote Standalone Secondary
    • SDS = Shared Disk Secondary
Ausblick

Unser Ziel ist, die Basis zu erweitern für unsere Informixkunden mit einem Bedarf für komplexe Datenanalyse. Natürlich wollen wir auch über Bestandskunden hinaus neue Kunden hinzugewinnen. Obwohl es im Information Management Portfolio der IBM überlappende Produkte gibt, sind wir der meinung, dass die fortschrittliche In-Memory Technoligie des Informix Warehouse Accelerators gepaart mit den Stärken des Informix Server im OLTP ein einzigartiges Angebot zu einem Preis wie kein zweites ist.

Weitere Informationen: Über einen Kommentar zu einem der blog-Einträge hier, oder auch (in englisch) bei Fred Ho direkt: hof@us.ibm.com .


Informix Warehouse Accelerator: Ein Jahr im Rückblick (2)

4. Mai 2012 Posted by Martin Fuerderer



Icon: IWA Logo Truck Nach dem ersten Teil des Jahresrückblicks mit dem Thema Technologie geht es diesmal um bisherige Verkäufe und um den Wettbewerb zum Informix Warehouse Accelerator.

Verkäufe

Der mit dem Informix Warehouse Accelerator im ersten Jahr erzielte Umsatz, das wichtigste Erfolgsmaß für jedes Produkt - speziell für ein neues Produkt innerhalb IBM-Information Management-Informix - war mehr als respektabel und auf jeden Fall im Millionenbereich (genaue Zahlen können hier jedoch nicht genannt werden). Es gibt schon eine Anzahl von Kunden, verteilt über verschiedene Geografien und verschiedene Industriezweige, einschliesslich Einzelhandel, Versicherungen, Hotelwesen, Energieversorgung, sowie im öffentlichen Bereich. Noch wichtiger ist, dass es Partner gibt, die mit ihrem eigenen Angebot auf Basis des Accelerators selbständig und erfolgreich Verkäufe abgeschlossen haben. Informix war schon immer ein sehr Partner-orientiertes Produkt und der Informix Warehouse Accelerator ist hier keine Ausnahme. Dies gilt besonders für Mittelstandskunden, wo geringe Kosten von größter Wichtigkeit sind. Mit einem aggressiven Zeitplan für eine Anzahl von Workshops und Bootcamps überall auf der Welt wurden unsere Partner geschult, was auch 2012 das ganze Jahr über weitergeführt wird.

Wettbewerb

Jeder Anbieter auf dem Markt scheint dieser Tage zu behaupten, dass er analytische Abfragen schnell durchführen kann. Schliesst man Angebote spaltenorientierter Datenbanken mit ein, sind es 10 bis 20 konkurrierende Produkte in diesem Bereich. Die meiste Aufmerksamkeit erhielt HANA von SAP, das viele Eigenschaften und Funktionalitäten mit dem Informix Warehouse Accelerator gemeinsam hat. Dies ist günstig für uns, denn durch das erhöhte Bewusstsein der Möglichkeiten einer in-memory Datenbank, speziell entwickelt für Data Warehousing im industriellen Einsatz, werden Kunden die Unterschiede zwischen Informix Warehouse Accelerator und HANA weiter untersuchen.

Wir haben schon Vergleichszahlen (basierend auf realen PoCs von Kunden) gegenüber Produkte anderer Anbieter, z.B. Teradata und SQL Server, und spaltenorientierter Datenbanken von Anbietern wie Greenplum und Ingres VectorWise. Wir können erfreut berichten, dass wir in diesen Vergleichen gut dastehen, sowohl bezüglich Performance als auf TCO. Daher sind uns solche Vergleiche willkommen.

Im nächsten blog-Eintrag betrachten wir die wichtigsten der vielen Funktionalitätserweiterungen, die der Informix Warehouse Accelerator schon im ersten Jahr erfahren hat.


Informix Warehouse Accelerator: Ein Jahr im Rückblick (1)

2. Mai 2012 Posted by Martin Fuerderer



Icon: IWA Logo TruckNachdem der Informix Warehouse Accelerator Anfang April ziemlich genau ein Jahr auf dem Markt ist, hat Fred Ho, Chief Technologist - Informix Warehouse Software Product Manager, einen Jahresrück- bzw. Überblick geschrieben, den ich hier auch in deutscher Sprache anbieten möchte.
 
Der Überblick ist in mehrere Abschnitte zu den folgenden Themen unterteilt: Technologie, Verkäufe, Wettbewerb, Funktionalitätserweiterungen und Ausblick. Diese Themen werden in lockerer Folge als blog-Einträge vorgestellt. Beginnen wir mit dem Thema ...:

Technologie

Für alle, die das Informix Warehouse Accelerator Produkt noch nicht kennen: es ist ein Beschleuniger, der unsichtbar hinter einem Informix Server läuft und speziell für Data-Warehousing oder analytische Abfragen entwickelt wurde. Die Benutzer setzen ihre Abfragen entweder direkt in SQL oder über ihr bevorzugtes Business Intelligence Tool (z.B. Cognos, Microstrategy oder Pentaho) wie gewohnt an den Informix Server ab. Basierend auf Definitionen von Data Marts leitet der Informix Server die Abfragen an den Accelerator, empfängt von ihm das Ergebnis und leitet es an den Benutzer weiter, als ob der Informix Server die Abfrage selbst beantwortet hätte. Der einzige Unterschied ist, dass die Antwortzeit für solche Abfragen 10 bis 100 mal so schnell sein kann. Abfragen, die viele Minuten oder sogar Stunden gedauert haben, können in wenigen Sekunden ausgeführt sein. All dies passiert ohne spezielles Tuning, oder Hinzufügen von Indexen oder Datenwürfeln. Der Accelerator ist bestens geeignet für Informix-Kunden, die auf dem Informix Server Standard OLTP ausführen, aber auch analytische Abfragen stellen, entweder auf demselben oder auf einem anderen System. Der Accelerator läuft auf günstiger Intel Hardware, für die es hunderte Gigabytes DRAM zu sehr günstigen Preisen gibt.

Im nächsten blog-Eintrag: <b>Verkäufe</b> und <b>Wettbewerb</b>.


Neues Video zum Informix Warehouse Accelerator

20. April 2012 Posted by Martin Fuerderer


Icon: IWA Logo TruckEin neues Video über den Informix Warehouse Accelerator wurde auf youtube veröffentlicht:

 

http://www.youtube.com/watch?feature=player_embedded&v=C-dvl_EptLY

 

Dieser professionell produzierte Videoclip betont die Anwendungsmöglichkeiten und den Gewinn für Kunden, die den Informix Warehouse Accelerator einsetzen:

Sehen Sie in diesem Video, wie der Informix Warehouse Accelerator komplexe Datawarehouse-Abfragen dramatisch beschleunigt, ohne Tuning der Datenbank oder Änderung der Datenbankanwendung!

Mehr technisch orientierte Tipps und Hintergrundinformationen zum Informix Warehouse Accelerator finden Sie im (englischsprachigen) "IWA-Blog" auf developerWorks.


Neuer "Proof of Technology" für den Informix Warehouse Accelerator

20. März 2012 Posted by Martin Fuerderer


Icon: IWA Logo TruckDer Informix Warehouse Accelerator ist eine Software-Lösung zur Beschleunigung von Warehouse-Abfragen gegen den IBM Informix Server. Durch das Zusammenspiel von in-memory Technologie, spalten-orientierter Datenorganisation und vorteilhafter Kompressionsalgorithmen werden außergewöhnliche Beschleunigungen für komplexe, analytische Datenbankabfragen erzielt. Mit der derzeitige Version 11.70.FC4 und für zukünftige Versionen gibt es nun die Möglichkeit, dank dem Proof of Technology (PoT) diese Beschleunigung selbst direkt zu erleben.


Der PoT wurde neu entwickelt von Carlton Doe, in der Informix-Gemeinde bestens bekannt durch seine Bücher zur Informix Server Administration (z.B. bei Amazon) oder seinen Vergleich der verschiedenen Editionen von Informix Version 11 auf developerWorks.


Der beiliegende Flyer (PDF file) enthält weitere Informationen, sowohl zu diesem neuen PoT, als auch zum generellen Konzept eines IBM PoT. Es wird auch beschrieben, wie der PoT als Tagesveranstaltung ablaufen könnte.


Für weitere Informationen, Verfügbarkeit und mögliche Termine sprechen Sie bitte Ihren IBM Vertriebsbeauftragten an.


Noch eine gute Nachricht zum Schluss: Die Veranstaltung ist kostenfrei!
(Teilnehmer tragen ihre Reisekosten jedoch selbst.)