September 2014 › Blog über die Onlinewelt

Posts from September 2014.

September 24th 2014
by

IT-Business – Alibaba legt weltgrößten Börsengang hin

Der chinesische Online-Händler Alibaba hat mit seinem rund 25 Mrd. Dollar (19,45 Euro) schweren Börsengang endgültig einen neuen Weltrekord aufgestellt. Nach seinem furiosen Marktdebüt an der Wall Street am Freitag verkaufte das Amazon -Pendant weitere 48 Millionen Aktien, die für eine große Nachfrage zurückgehalten wurden, wie ein Insider am Montag sagte. Der Erlös sei dadurch um drei Milliarden Dollar gestiegen.

Rekord

Damit stellte das im Westen noch weitgehend unbekannte Unternehmen nicht nur das Online-NetzwerkFacebook in den Schatten, das mit dem bisher größten Börsengang eines Internet-Unternehmens vor zwei Jahren 16 Milliarden Dollar einnahm. Auch die vier Jahre alten Weltbestmarken von General Motors von 23,1 Mrd. Dollar und Agricultural Bank of China von 22,1 Mrd. Dollar konnte es knacken.

Über die Mehrzuteilungsoption hätten Alibaba selbst und der Großaktionär Yahoo zusätzlich 1,8 Milliarden beziehungsweise 1,2 Milliarden Dollar eingenommen, sagte der Insider zu Reuters. Alibaba wollte sich nicht äußern. Konzerngründer Jack Ma verkaufte Börsendokumenten zufolge weitere 2,7 Millionen Papiere und Co-Gründer Joe Tsai rund 900.000.

Anleger-Run auf Alibaba

Bereits beim Handelsdebüt hatten die Investoren Alibaba die Aktien regelrecht aus den Händen gerissen. Angesichts einer Flut von Kaufaufträgen dauerte es fast zweieinhalb Stunden, ehe die New Yorker Börse einen ersten Kurs nennen konnte. Viele Anleger, die bei der Zuteilung leer ausgegangen waren, wollten die Titel offenbar zu fast jedem Preis in ihren Depots haben. Die Aktie legte letztlich fast 40 Prozent zu. Damit ist das vor 15 Jahren von dem Englischlehrer Ma gegründete Unternehmen rund 231 Milliarden Dollar Wert und mehr als alteingesessene US-Konzerne wie Walt Disney und Coca-Cola. Allein Ma kassiert etwa 900 Millionen Dollar.

Expansion

Mit dem Erlös aus dem Börsengang will Alibaba seine Expansion vorantreiben – auch nach Europa und in den USA. Die Anleger wollen dabei von dem rasantem Wachstum profitieren. Rund 80 Prozent der Online-Umsätze in China gehen bereits auf das Konto des Unternehmens, das inzwischen mehr Geschäfte abwickelt als Amazon und eBay zusammen. Von April bis Juni schossen die Umsätze um 46 Prozent nach oben. Und anders als viele Internet-Firmen schreibt Alibaba Gewinn – rund zwei Milliarden Dollar waren es im vorigen Quartal. (APA, 22.09.2014)

 

Originalbeitrag:

derstandard.at/2000005874605/

September 22nd 2014
by

Suchmaschinenoptimierung richtig einsetzen

Fast überall hört man heutzutage von der Suchmaschinenoptimierung oder kurz SEO für Search Engine Optimization. Doch was bedeutet das? Warum ist SEO so wichtig und wieso haben es kleinere Shops oft einen Nachteil gegenüber der größeren im Bezug zur Suchmaschinenoptimierung? Diese Fragen werden nun geklärt und Suchmaschinenoptimierung Berlin hilft dabei das Suchmaschinenranking, zu optimieren.

Warum benötigt man Professionelle Suchmaschinenoptimierung?

Die eigene Internetpräsenz jeder Firma gehört in der jetzigen Zeit zum guten Ton und nicht nur das sie ist zudem unerlässlich. Die eigene Homepage dient als Aushängeschild des Unternehmens auf der sich Bestandskunden und auch potenzielle neue Kunden Informationen einholen über die Firma, das Produkt oder das Projekt. Dieses Aushängeschild soll von möglichst vielen Menschen möglichst oft gesehen und vor allem gefunden werden. Hier kommt die Professionelle Suchmaschinenoptimierung ins Spiel, denn dank dieser Maßnahmen wird der Webseite beispielsweise von Suchmaschinenoptimierung Berlin geholfen auf den vordersten Plätzen der unterschiedlichen Suchmaschinen zu erscheinen, und somit besser von den Nutzern gefunden zu werden. Den Ort, wo Webseiten am meisten wahrgenommen und geklickt werden. Dies wiederum bedeutet mehr Erfolg im Internet.

Was haben die großen Firmen, was die Kleinen nicht haben?

Viele kleine Händler folgen dem Irrtum, dass viele Produkte im Shop einen hohen Traffic generieren. Aber auch für kleine Online-Shops ist die professionelle Suchmaschinenoptimierung ein unerlässliches Werbemittel, in das es sich zu investieren lohnt. So ist es ziemlich unwahrscheinlich das ein Shop in den oberen Ergebnissen auftaucht, wenn Produktbeschreibungen komplett fehlen, so wie es meist bei kleinen Shops der Fall ist. Große Firmen haben erkannt das eine hohe Wortdichte mit viel hochwertig verfassten Unique Content nötig ist. Werden Artikelbeschreibungen kopiert oder diese verwendet die an alle Shops ausgegeben werden, wird das Unternehmen von den Suchmaschinen als minderwertig eingestuft. Besitzt man als kleineres Unternehmen nicht die Mittel eine Firma für Professionelle Suchmaschinenoptimierung zu engagieren, können den Shop bereits wenige eigene geschriebene Seiten etwas nach vorne bringen. Suchmaschinenoptimierung Berlin kann kleinen Händlern dabei helfen, den Sprung nach oben zu schaffen. Da viele potenzielle Käufer vor dem Kauf echte Kundenbewertungen lesen, ist es durchaus angebracht, auch diese in der Webseite mit einzubringen. Der Vorteil daran ist der kostenlose Unique Content auf einer lebendigen Seite, die aktuell bleibt und im Suchmaschinen-Ranking immer wieder nach oben rutscht. Genau das haben große Shops bereits erkannt und zum Beispiel die Suchmaschinenoptimierung Berlin genutzt.

September 20th 2014
by

Der PC-Markt erholt sich entgegen der Vorhersagen

Zugegeben, er ist reichlich abgedroschen, aber hier stimmt der Spruch: Totgesagte leben länger. Ich meine das in Beziehung zum PC-Markt. Sowohl die Verkäufe von Desktop-PC’s als auch die von Laptops haben sich nach einem starken Einbruch in den letzten Jahren jetzt wieder erholt. Ganz überraschend kommt das nicht. Der Rückgang der PC-Verkäufe hing vor allem mit dem großen Erfolg der Tablet-Computer, Smartphones und ipads zusammen. Diese Geräte versprachen letztendlich mehr, als sie halten konnten. Man muss einfach feststellen, dass Smartphones oder Pads/Tablets einfach einen Desktop-PC bzw. Laptop nicht vollwertig ersetzen. Bei der Größe der Displays gibt es schon das erste Problem. Für viele, vor allem ältere Nutzer ist der Bildschirm auf den mobilen Endgeräten schlicht zu klein. Genauso sieht es mit der Speicherkapazität aus. Viel Platz ist auf dem lokalen Speicher der Smartphones und Tablets nicht und eine große Mehrheit der Nutzer möchten nicht die Möglichkeit der Cloud-Speicherung nutzen, sie vertrauen der Technik einfach nicht. Dies umso mehr, weil kürzlich Nacktfotos von Prominenten von gehackten Accounts gestohlen und veröffentlicht wurden. Ein weiterer Nachteil der sogenannten mobile devices ist die teilweise sehr eingeschränkte Möglichkeit, externe Geräte wie Festplatte, Stick oder Drucker anzuschließen. Schließlich ist einer der bedeutendsten Nachteile die Eingabe an sich. Auch, wenn es externe Tastaturen gibt, viele Leute können sich daran einfach nicht gewöhnen und gehen zur klassischen Variante zurück und arbeiten wieder an ihrem Windows-PC. Auch bei den Reparaturmöglichkeiten schneiden Smartphones und Tablets wie das iPad schlechter ab. Obwohl die Geräte für den mobilen Einsatz konzipiert sind, sind sie doch empfindlicher, als man denkt. Ein Display-Austausch oder ein Defekt des Touchscreens kann unverhältnismäßig teuer werden, das gilt übrigens auch für eine Datenrettung, falls das Gerät überhaupt nicht mehr funktioniert. Das ist bei Windows PC’s oder Laptops schon teuer, dafür sind aber die Erfolgsaussichten erheblich besser.

 

Als Fazit lässt sich sagen, dass die Vorhersagen vor einigen Jahren so nicht eingetroffen sind. Die Leute schätzen gewohnte Arbeitsmittel und haben gemerkt, dass allein ein Tablet oder Pad nicht ausreicht, um vollständig arbeitsfähig zu sein.

September 19th 2014
by

Eine effiziente Option für die Erstellung eines Heimnetzwerkes ist power-LAN

In den meisten Haushalten in Deutschland gibt es mittlerweile mehr als ein internetfähiges Gerät. Oft hat man noch einen Desktoprechner einen oder zwei Laptops und mehrere Smartphones je nach Größe der Familie. In vielen Fällen ist ein Router alleine damit überfordert, alle Räume der Wohnung oder des Hauses mit einem stabilen Netz zu versorgen. Nun hat man die Möglichkeit, das vorhandene WLAN-Netz mit einem oder zwei Repeatern zu erweitern, allerdings wird es immer so bleiben, dass eine WLAN Verbindung immer etwas weniger stabil ist. Für manche Anwendungen wie zum Beispiel große Downloads oder Online-Spiele ist es immer besser, eine stabile LAN-Verbindung zu haben. Außer in hochwertigen Neubauten sind für gewöhnlich in Wohnungen und Häusern keine Netzwerkkabel verlegt, so dass dies nachträglich eingebaut werden müsste. Für viele ist es ein zu großer Aufwand, das ganze Haus neu zu verkabeln. Die Lösung für dieses Problem ist das so genannte d-LAN, eine Technologie, die eine LAN-Verbindung über die vorhandenen Stromleitungen herstellt. Dafür gibt es auf dem Markt Adapter, die man einfach in die Steckdose steckt und so das Haus vernetzt. Wichtig dabei ist, dass man möglichst die Adapter direkt in eine Wandsteckdose steckt, der Betrieb in einer Mehrfachsteckdose kann Störungen verursachen. Als zusätzliches Feature gibt es auch d-LAN-Adapter, die gleichzeitig als WLAN-Hotspot fungieren. Damit hat man auch im ganzen Haus Empfang mit einem Smartphone, ipad oder Notebook, was natürlich extrem praktisch ist. Ein zusätzlicher großer Vorteil ist neben der Einsparung der Verkabelung, dass über eine LAN Verbindung wesentlich schneller Daten innerhalb des Netzes transportiert werden können. Wenn Sie zum Beispiel eine Netzwerkfestplatte haben und darüber Filme oder Musik streamen, haben sie eine spürbare besseren Datenstrom. Laut Anleitung ist die Einrichtung der d-LAN-Adapter relativ simpel, allerdings hatte ich Probleme, mein Kabelmodem damit zu verbinden. Ein Computerexperte, der mir empfohlen wurde und hier bei uns einen PC-Service anbietet, konnte mir das ausführlich erklären. Wenn man so wie ich nur ein Kabelmodem hat, kann darauf auch nur ein Computer gleichzeitig ins Netz. Aus diesem Grunde brauchte ich noch einen Router, der das Signal des Kabelmodems sozusagen aufteilt. Der Computerservice baute mir dann die Konfiguration zusammen. Das Kabel vom Kabelmodem wurde in den WAN-Port des Routers gesteckt und von einem der Ports für dein Kabel in den ersten d-LAN Adapter. Damit das Ganze funktioniert, muss man, nachdem man alles verkabelt hat, alles ausschalten und zuerst das Kabelmodem neu starten, dann den Router und dann nacheinander die Adapter. Mit dieser Konfiguration hat es auch auf Anhieb geklappt und wir haben im ganzen Haus ein stabiles Netzwerk. Ich kann die Alternative mit d-LAN nur jedem empfehlen.

September 18th 2014
by

Firefox 32 steht zum Download bereit

Firefox 32 ist erschienen und bietet wichtige Verbesserungen sowohl beim Passwort-Manager als auch beim Malware-Schutz.

Mozilla bereitet derzeit die Veröffentlichung von Firefox 32 vor. Die neue Version steht bereits auf den FTP-Servern von Mozilla zum Download bereit. In Kürze dürfte dann auch die offizielle Veröffentlichung folgen. Wer nicht so lange warten möchte, der kann Firefox 32 hier bereits jetzt herunterladen.

Das neue Firefox 32 bietet vor allem Verbesserungen im Bereich Sicherheit. Der neue Passwort-Manager wurde deutlich aufgepeppt und liefert den Anwendern nun auch Informationen darüber, wann ein Passwort das letzte Mal verwendet und aufgerufen wurde. Der Passwort-Manager lässt sich wie gewohnt über die Einstellungen im Reiter “Sicherheit” und dort nach einem Klick auf “Gespeicherte Passwörter” aufrufen.

Firefox 32 mit Malware-Schutz für Downloads

Firefox 32 überprüft Downloads automatisch auf Malware und zwar über die Google Application Reputation Database. Bei einem Fund schlägt Firefox sofort Alarm und verweigert das Aufrufen der betreffenden Datei. Dieser Malware-Schutz kann nur manuell in den Einstellungen abgeschaltet werden. Die entsprechenden zwei neuen Einträge finden sich im Reiter “Sicherheit” und tragen die Bezeichnungen: “Webseite blockieren, wenn sie als attackierend gemeldet wurde” und “Website blockieren, wenn sie als Betrugsversuch gemeldet wurde”. Die entsprechenden Häkchen sollten nur in extremen Ausnahmefällen entfernt werden und anschließend sofort wieder gesetzt werden. Ansonsten sind Sie beim Surfen mit dem Firefox nicht über dessen Safebrowsing-Funktion geschützt.

Firefox 32 mit Public Key Pinning

In Firefox 32 ist auch die Unterstützung für die Sicherheitsfunktion Public Key Pinning aktiviert. Diese Funktion überprüft beim Aufruf einer Website mit Sicherheitszertifikat, ob dieses von einem vertrauenswürdigen Herausgeber stammt. Die Betreiber der Seiten können über Public Key Pinning auch Zertifizierungsstellen festlegen, von denen sie die Zertifikate erhalten. Sollte beim Aufruf der Website das Zertifikat von einer anderen Zertifizierungsstelle stammen, dann wird der Aufruf der Website unterbunden. Auf diese Weise können Man-in-the-Middle-Attacken unterbunden werden.

Firefox 32: Neues Kontextmenü, Suchleiste und verbesserter Müll-Sammler

Hinzu kommen bei Firefox 32 eine Reihe weiterer kleinerer Verbesserungen. Das Kontextmenü erscheint nun in einer neuen Form. An oberster Stelle werden hier nur die Pfeile für Vor und Zurück angezeigt. Ebenso ein Icon zum Aktualisieren der Website und zum Ablegen in den Favoriten. Auf diese Weise lassen sich nun mit der Maus und über das Kontextmenü neue Websites besonders schnell in die Favoriten aufnehmen. Schneller ist nur das Tastatur-Kürzel Strg + D.

Auch von der Integration des generationellen Müllsammlers ist in den Release-Notes die Rede, der das schnellere Ausführen von Javascript-Code ermöglichen soll. Bei der Suchfunktion innerhalb der Seite (Strg + F) werden nach Eingabe eines Suchbegriffs nun auch die Anzahl der gefundenen Treffer angezeigt. Eine Funktion, die Google Chrome bereits seit langer Zeit bietet und die äußerst praktisch ist.

 

Artikel-Quelle:

www.pcwelt.de/

September 18th 2014
by

Intel Core i7-5960X im Test: Die PC-Revolution beginnt mit Octacore und DDR4

Intel Core i7-5960X im Test

Intels neues Topmodell für Desktop-PCs, kleine Workstations und Übertakter startet früher als erwartet – und ist mit alter Software manchmal langsamer als der Vorgänger. Für Profis kann sich der Prozessor Core i7-5960X dennoch lohnen.

Diesmal gibt es nicht wenige, sondern gar keine Aufrüstmöglichkeiten: Wer Intels neue Serie Core-i7-5900/5800 nutzen will, braucht eine neue CPU, ein neues Mainboard und neuen Speicher. Das schreckt zunächst ab, ist aber logisch. Der hier getestete Core i7-5960X basiert wie alle Extreme-CPUs der vergangenen Jahre auf Server-Technik, genauer dem ebenfalls bald erwarteten Haswell-EP, der als Xeon 2600 v3 erscheinen wird.

Diese neuen Xeons bringen eine Generalüberholung der gesamten Infrastruktur mit sich, sodass sich auch beim Haswell-E 5960X zahlreiche Änderungen ergeben. Da die Produkte bei Servern und Workstations mehrere Jahre aktuell bleiben, dürfte Intel auch die neue Plattform entsprechend lange pflegen.

Das zeigt sich schon am neuen Sockel LGA 2011-v3, der nur mechanisch gleich bleibt. Selbst alte Kühler, die vor drei Jahren für Sandy Bridge-E (Core-i7-3900) angeschafft wurden, passen also noch. Dennoch sind neue Mainboards nötig, denn die 2011 Kontakte sind anders beschaltet. Das ist dem DDR4-Speicher geschuldet, für den Haswell-E wie gehabt vier Speicherkanäle mitbringt.

DDR4 ist eine direkte Anforderung von Server- und Supercomputerherstellern, die sich laut Intel vor allem mehr Bandbreite wünschen, selbst wenn dafür die Latenzen steigen. Da bei solchen Anwendungen vor allem große Programme und Daten bearbeitet werden, ist die effektive Bandbreite des Hauptspeichers wichtiger als bei kleinen Desktop-Anwendungen. Andere Techniken wie höchstens 40 PCI-Express-Lanes in Version 3.0 und weitere Schnittstellen blieben weitgehend unverändert.

Wichtigste Neuerung sind die acht Kerne, die per HyperThreading 16 Threads parallel verarbeiten können. Nach Intels Lesart ist der 5960X die erste Achtkern-CPU des Unternehmens für Desktop-PCs. Das stimmt nur soweit, wie man nur Core-CPUs und kleinere Modelle als für den Desktop geeignet ansehen mag. Findige Bastler setzen aber schon seit Jahren auch Xeons in günstigen Desktop-Boards ein. Dabei bezahlt man aber stets meist nicht genutzte Funktionen wie die Eignung für ECC-Speicher und die Fernwartung vPro mit – beides unterstützt auch der 5960X nicht. Auch von AMD gibt es seit den ersten Bulldozer-FX-CPUs acht Kerne, wobei aber nur acht Integer-Einheiten vorhanden sind und halb so viele FPU- und SIMD-Rechenwerke.

Der entscheidende Unterschied zu den Xeons sind bei den neuen Core-CPUs die offenen Multiplikatoren sowie weitere Übertaktungsfunktionen. Da sich die Strukturbreite von 22 Nanometern gegenüber Ivy Bridge-E nicht geändert hat, bedingen die beiden zusätzlichen Kerne und der von 15 auf 20 MByte vergrößerte L3-Cache insgesamt bis zu 2,6 Milliarden Transistoren und eine höhere Leistungsaufnahme. Statt 130 Watt TDP sind nun 140 Watt abzuführen, was aber mit guten Luftkühlern noch möglich ist. Damit das klappt, mussten die Taktfrequenzen gesenkt werden.

Mehr Kerne, mehr Cache, weniger Takt

Während der erst vor einem Jahr erschienene Core i7-4960X (Ivy Bridge-E) mit seinen sechs Kernen noch einen Basis- und Turbotakt von 3,6 und 4,0 GHz erreichte, kommt der Core i7-5960X nur auf 3,0 und 3,5 GHz. Mehr Leistung kann er also nur dann erreichen, wenn seine um ein Drittel höhere Zahl an Kernen von der Software auch genutzt wird. Dabei gilt es aber noch die kürzlich von Golem.de ausführlich beschriebenen Eigenheiten der Turbos zu beachten.

Der Basistakt ist bei Intel-CPUs nur die Frequenz, welche die Kerne unter den ungünstigsten Bedingungen mindestens erreichen. In der Praxis liegt auch bei voll in Threads aufgeteilten Programmen wie Cinema4D bei stundenlanger Last der Takt höher – und zwar beim 5960X prozentual gesehen noch höher, als beim 4960X.

Intel gibt einen Turbo-Takt von 3,3 GHz bei Belastung aller Kerne für den 5960X an, den die CPU in unserem Test auch stets erreichte. Das liegt drei Multiplikatorstufen über dem Basistakt. Beim 4960X ist es nur eine, da diese CPU aber dann mit 3,7 GHz läuft, ist sie mit schlecht in Threads aufgeteilten oder gar Single-Thread-Programmen dennoch schneller als der Nachfolger. Wohl daher ist anders als früher befürchtet der 5960X auch nicht teurer als der 4960X, für beide Prozessoren gilt der Großhandelspreis von 999 US-Dollar zuzüglich Steuern.

Da es jetzt ein Drittel mehr Kerne gibt, wurde auch der L3-Cache um ein Drittel aufgestockt, und zwar von 15 auf 20 MByte. Im Verhältnis wurde der schnelle Zwischenspeicher bei den beiden Sechskernmodellen 5930K und 5820K mit 15 MByte sogar überproportional größer, für den Hexacore 4930K gab es nur 12 MByte. Einen Quad-Core wie den 4820K bietet Intel mit der Serie Haswell-E nicht mehr an, seinen Platz übernimmt der 4790K.

Wer sich mit dem 5960X besonders große Systeme mit mehr als zwei Grafikkarten bauen will, stößt an eine schon von seinem Vorgänger bekannte Grenze: Es sind nur 40 PCIe-Lanes in Version 3.0 vorhanden. Das reicht für zwei Grafikkarten mit x16-Anbindung, eine dritte bekommt nur noch 8 Lanes. Bei vier Karten müssen sich drei mit x8-Anbindung begnügen. Bei Spielen reduziert das die Leistung kaum, bei Rechenanwendungen für GPUs kann das aber zum Flaschenhals werden.

Dazu kommt noch, dass mit M.2-SSDs nun eine weitere Komponente zum Nachrüsten existiert, die im Idealfall mit vier PCIe-Lanes angebunden werden sollte. Das hat auch Asus mit dem zum Test verwendeten Highend-Mainboard Rampage V Extreme recht kompromisslos umgesetzt: Wenn sich im vierten PCIe-Slot eine Karte befindet, wird die M.2-Schnittstelle abgeschaltet. Dank Dual-GPU-Karten lassen sich aber dennoch vier Grafikprozessoren und eine M.2-SSD verwenden, alternativ gibt es an diesem Mainboard auch zwei Sata-Express-Schnittstellen, wenn vier Grafikkarten verwendet werden sollen.

Die Zahl der PCIe-Lanes ließ Intel auch bei den beiden kleineren Haswell-E unverändert, der 5930K besitzt 40 Leitungen und der 5820K nur 28. Mit dem kleinsten der neuen Prozessoren lassen sich also nicht einmal mehr zwei Grafikkarten mit voller Bandbreite ansteuern, das war beim 4820K mit 40 Lanes noch anders. Dennoch reichen die PCI-Express-Anbindungen für mehr Erweiterungen als bei den Quad-Cores der Serie Core-i-4000, denn dort sind bei allen Prozessoren höchstens 16 Lanes vorhanden. Die PCIe-Lanes die direkt im Root-Complex des Prozessors sitzen, stehen exklusiv für Steckkarten zur Verfügung, alle anderen Schnittstellen des X99-Chipsatzes inklusive 8 PCIe-Lanes in Version 2.0 stellt dieser selbst zur Verfügung.

Sparsamer X99-Chipsatz und DDR4-Speicher

Traditionell gelten die X-Chipsätze für Intels Highend-Plattformen als Stromverschwender – das hat sich mit dem X99 endlich geändert. Zwar gibt Intel gegenüber dem Vorgänger X79 – ein X89 erschien nie – nur eine Senkung der TDP von 7,8 auf 7 Watt an. Die Strukturbreite wurde aber von 65 auf 32 Nanometer verkleinert, sodass der TDP-Wert wohl nur symbolisch ist, damit die Mainboardhersteller nicht viel zu kleine Kühler verbauen. Da kaum noch Zusatzchips nötig sind, kann die gesamte Plattform viel weniger Energie als bei Sandy Bridge-E und Ivy Bridge-E aufnehmen.

So gibt es nun endlich auch in der Extreme-Serie native Unterstützung für USB 3.0, und zwar gleich für sechs Ports. Wenn mehr Anschlüsse wie beim Asus Rampage V vorhanden sind, arbeiten weiterhin andere USB-Controller auf dem Mainboard – wer sie nicht braucht, kann sie im UEFI abschalten. Zusätzlich gibt es durch den Chipsatz auch bis zu acht USB-2.0-Ports.

Mit zehn Sata-Anschlüssen mit 6 GBit/s stellt der X99 auch so viele Schnittstellen für Massenspeicher zur Verfügung, dass sich damit größere Desktop-RAIDs realisieren lassen. Für Selbstbau-Server sind aber zusätzliche Ethernet-Schnittstellen nötig, nur einen Gigabit-Port kann der Chipsatz direkt anbinden. M.2-Slots sieht Intel nicht direkt vor, sie können aber über die PCIe-Lanes des Prozessors zur Verfügung gestellt werden.

Sparsamkeit ist auch beim neuen Speichertyp DDR4 angesagt. Statt minimal 1,35 Volt bei DDR3 sind DDR4-DIMMs von Anfang an auf 1,2 Volt ausgelegt. Die Speicherchips mit ihren immer kleineren Strukturen von derzeit unter 30 Nanometern machen das eigentlich schon länger mit, nur waren die Adressierungsverfahren und die Busprotokolle für das inzwischen 15 Jahre alte Prinzip von DDR-Speichern kaum geeignet.

Folglich arbeitete das Normierungsgremium JEDEC schon seit über drei Jahren daran, die Organisation der DRAMs und der physikalischen Busse möglichst gleich zu lassen und die Übertragung dennoch schneller zu machen. Alles andere hätte völlige Neukonstruktionen von Speichercontrollern und Mainboards bedeutet. Geeinigt hat man sich schließlich auf neue Protokolle, die Gruppierung in internen Bänken – nicht zu verwechseln mit den üblichen Banks – und mehr parallele Zugriffe durch ein erweitertes Prefetching. Damit die Signalqualität erhalten bleibt, kann der Bus dynamisch invertiert werden.

All das geht mit heutigen Speicherchips zu Lasten der Latenz. Die günstigsten der im Vergleich zu DDR3 ohnehin noch teuren DDR4-Module haben ein CAS-Latency von 17, ein Wert, den auch billigste DDR3-Speicher leicht unterbieten. Ausgeglichen wird das durch einen höheren Takt. Wo effektiv 2.133 MHz bei DDR3 schon zu den besseren Übertakter-Modulen zählen, ist das bei DDR4 die Einstiegsfrequenz – zumindest bei den bisher verfügbaren Modulen.

Allerdings ist DDR4-2133 auch der höchste Wert, den die JEDEC spezifiziert hat, es gibt aber auch schon Module mit 2.800 MHz, und 3.000 MHz sind angekündigt, aber noch kaum verfügbar. Damit die Mainboards die richtigen Timings einstellen, hat Intel sein Extreme Memory Profile (XMP) in Version 2.0 neu aufgelegt – ein Sprung von der bisherigen Version 1.3, die für DDR3 weiterhin gültig ist.

Für den bisherigen Speicher gibt es zwar schon länger auch Module mit effektiv 3.000 MHz und mehr, sodass der Vorteil von DDR4 sich erst langfristig zeigen muss. Er liegt, weil durch Server-Technik getrieben, vor allem in mehr Speicher bei nicht überproportional steigender Leistungsaufnahme. Das zeigte sich schon auf der Computex 2014, als Mainboardhersteller 128 GByte für Haswell-E empfahlen – Intel sieht nur 64 GByte vor.

Äußerlich unterscheiden sich die die neuen Module durch 288 statt 240 Kontakte, dabei sind sie an der Kontaktseite unverändert 134 Millimeter breit. Damit die höhere Dichte der Anschlüsse sicher in den Slot findet, stehen die mittleren Kontakte bei DDR4-Modulen etwas hervor, was mehr Aufwand bei der Fertigung der Platinen bedeutet. Mechanisch passen durch eine verschobene Einkerbung DDR3-Module nicht in DDR4-Slots und umgekehrt. Irrtümliches Einstecken ins falsche Board ist so ausgeschlossen.

Testsysteme und Verfahren

Wir testen für die Benchmarks ein Vorserienexemplar (ES) des Core i7-5960X auf dem Asus-Mainboard Rampage V Extreme aus der ROG-Serie. Es bietet nicht nur den Intel-Sockel 2011-v3, sondern eine Sonderversion, die zum Übertakten mehr Pins der CPU ansteuert, wie unsere Kollegen von PC Games Hardware herausgefunden haben. In unserem Technologievergleich der Plattformen von 2013 und 2014 laufen die Systeme aber innerhalb ihrer Werkseinstellungen.

Da Intel zum ersten Mal seit über drei Jahren die Zahl der Kerne für Desktop-PCs wieder erhöht hat, aber den Takt senkte, konzentrieren wir uns auf den Vergleich von 4960X, 5960X und dem 4770K als erstem Haswell-Quadcore.

Die Messungen der beiden Extreme-CPUs erfolgen sowohl mit dem für die anderen Prozessoren verwendeten Netzteil Dark Power Pro von Be Quiet mit 850 Watt Nennleistung als auch mit dem recht sparsamen und neueren Straight Power desselben Herstellers mit 400 Watt und 80+-Gold-Zertifizierung. Dabei wurde die für die grafiklastigen Tests verwendete Radeon HD 7870 durch eine Radeon HD 6450 ersetzt, die für den Windows-Desktop nur 7 Watt benötigt. Dafür gibt es eigene Diagramme, die nur die Leistungsaufnahme von Intels Extreme-Editions vergleichen. Als Treiber kommt der WHQL-zertifizierte Catalyst 14.4 zum Einsatz. Die Zusatzchips der Mainboards und andere Erweiterungen wie WLAN-Adapter oder LED-Beleuchtungen schalten wir ab.

Intels bisherige Sechskerner laufen auf dem MSI-Mainboard X79A-GD65 8D mit X79-Chipsatz, dort verwenden wir 16 GByte DDR3-2133-Speicher mit den Timings 11-12-12-31. Das ist für Vergleichbarkeit wichtig, weil effektiv 2.133 MHz bisher die kleinste Taktfrequenz für verfügbare DDR4-Module sind. Dort betragen die Timings 15-15-15-35. Die gleichen DDR3-Speicher wie für die Hexacores stecken wir auch in das Z87-Deluxe von Asus, in dem der 4770K vermessen wird.

Alle Anwendungen und Daten kommen von einer Intel-SSD der Serie 520 mit 240 GByte Kapazität, von denen wir 24 GByte für besseres Wear-Levelling unpartitioniert lassen. Die Messungen finden unter Windows 7 Ultimate in der 64-Bit-Version statt, da wir wissen, dass dieses Betriebssystem auch bei den Lesern von Golem.de noch die am weitesten verbreitete Windows-Version und für Benchmarks zuverlässiger ist. Wo möglich, verwenden wir die 64-Bit-Versionen der Anwendungen.

Synthetische Benchmarks zeigen Single-Thread-Schwäche

Acht gegen sechs Kerne lautet das Duell beim Vergleich von 4960X und 5960X. Beim Vergleich der beiden Sechskerner 3960X und 4960X ergaben sich durch die Architekturverbesserungen und den gering gesteigerten Takt 7 bis 10 Prozent mehr Rechenleistung. Intels Ziel ist es, mit jedem neuen CPU-Design, wozu auch Haswell zählt, rund 10 Prozent mehr zu erreichen. Beim 5960X ist dafür der Takt geringer als bei seinem Vorgänger – das kann sich bei Single-Thread-Anwendungen trotz der Architekturvorteile negativ auswirken. Werden jedoch alle Cores voll ausgelastet, sind in der Theorie rund 30 Prozent mehr Leistung zu erzielen.

Das zeigen auch Cinebench R11.5 und R15, die mit Takt und Kernzahl nahezu perfekt skalieren: Der 5960X ist fast ein Drittel schneller als der 4960X, alle anderen CPUs sind abgeschlagen. Bei beiden Programmen lässt sich auch nur ein Kern nutzen, dann ist der 4960X durch seinen Taktvorteil gleichauf. Um die Leistung pro Takt zu bewerten haben wir beide CPUs auch mit einem festen Multiplikator von 30 auf 3,0 GHz eingestellt und Cinebench R15 neu vermessen. Durch zwei Kerne mehr gewinnt dann auch der 5960X.

Das ist auch bei Nutzung von nur einem Core der Fall, allerdings fällt das Ergebnis mit 108 gegenüber 110 Punkten zu Gunsten des 5960X äußerst knapp aus. Immerhin kann der Haswell-E hier seinen Architekturvorteil und den größeren L3-Cache offenbar noch ausspielen. Zudem bleibt Cinebench lange Zeit auf dem selben Kern, was bei älteren Anwendungen nicht der Fall ist.

Ein Extrembeispiel für ein Programm, das ständig die Kerne wechselt – was die CPU intern unter anderem durch Cache-Flushes durcheinanderbringt – ist SuperPi Mod XS 1.5. Wenn wir damit die Kreiszahl auf 4 Millionen Nachkommastallen berechnen, braucht der 5960X über zwei Sekunden länger als der 4960X. Der höhere Turbotakt des Ivy Bridge-E bringt hier den Vorteil, SuperPi ist so klein, dass der größere L3-Cache nicht ins Gewicht fällt. Wenn also noch sehr alte Single-Thread-Anwendungen eingesetzt werden müssen, sollte man durch eigene Tests prüfen, ob sich die neue CPU lohnt. Dann kann auch ein viel billigerer Quad-Core wie der 4790K mit 4,4 GHz bei Belastung eines Kerns schneller sein.

Bei Multithreading-Anwendungen schlägt die um ein Drittel erhöhte Kernzahl aber in der Regel zu, wenn sich die Programme nicht durch die für Desktops ungewohnt hohe Zahl von 16 Threads verwirren lassen.

Medienbearbeitung und Kompression

Selbst wenn ein Programm die acht Kerne und 16 Threads nutzt, kann es auf dem 5960X nicht automatisch schneller sein als beim 4960X. Das ist beispielsweise bei Lightroom der Fall, womit wir 257 Raw-Dateien in LZW-komprimierte TIFFs konvertieren. Dabei lastet das Adobe-Programm die Kerne ungleichmäßig aus, sodass der 5960X leicht langsamer als der 4960X ist. Das heißt nicht, dass die neue CPU sich nicht für Bildbearbeitung eignet. In nicht bewerteten Vergleichen mit Photoshop-Filtern wie Nik Dfine und Color Efex zeigte sich eine gleichmäßige Auslastung.

Ebenfalls langsamer kann der Haswell-E sein, wenn mit Winrar in der 64-Bit-Version die gleichen Raw-Dateien mit normaler Kompression in ein Rar-Archiv verpackt werden sollen. Wenn die gleiche SSD verwendet wird, ist der 4960X durch seinen höheren Turbo-Takt etwas schneller fertig. Wenn solche Aufgaben häufig anstehen, reicht aber schon die Erhöhung um zwei Multiplikatorstufen um den Nachteil auszugleichen. Das ist zwar eine moderate Übertaktung, viele professionelle Anwender schrecken aber vor solchen Eingriffen für ein Produktivsystem noch immer zurück.

Wir haben außerhalb der bewerteten Tests den Rechner sowohl bei der Konvertierung wie auch der Kompression praxisnah genutzt. Dabei fiel auf, dass der Start großer Programme wie Cinema4D oder der Aufruf komplexer Webseiten spürbar schneller abliefen. Genau messbar sind solche Vorteile von einigen Sekunden kaum, es geht eher um einen psychologischen Vorteil: Auch Aufgaben, die ältere Systeme voll auslasteten und unbenutzbar machen, sind nun kein Hindernis mehr, das von anderen Arbeiten abhält.

Wenn nicht gerade alle Kerne unter voller Last stehen, wie das etwa beim Rendering mit Cinema4D der Fall ist, reagiert ein Rechner mit dem Core i7-5960X fixer auf Eingaben und den Start anderer Anwendungen. Es sind stets vier Threads mehr verfügbar als beim 4960X, auf welche das Betriebssystem die Aufgaben verteilen kann.

Für Medienschaffende ist es aber unabdingbar, vor der Anschaffung einer Achtkern-CPU beim Hersteller der meistgenutzten Anwendungen nachzufragen, wie viele Threads von diesen tatsächlich genutzt werden. Da schon acht Threads durch Quad-Cores mit Hyperthreading seit Jahren üblich sind, sollten moderne Programme auch das doppelte nutzen können – denn Achtkerner sind durch die Xeons und AMDs FX-CPUs auch nicht brandneu, mit Intels neuem Haswell-E dürfte die Verbreitung noch etwas zunehmen.

Zahlreiche weitere Benchmarks des 5960X, vor allem mit Spielen, finden sich bei unseren Kollegen der PC Games Hardware, die auch das kleinere Modell 5820K vermessen haben. Den 5960X konnten sie auf bis zu 4,7 GHz übertakten, was aber eine Leistungsaufnahme für das Gesamtsystem von 271 Watt zur Folge hatte.

Rendertests mit über 27 Stunden

Wenn von Multicore-CPUs wie dem 5960X die Rede ist, fällt vielen Anwendern als Paradedisziplin der Videoschnitt ein – das ist aber nicht unbedingt die Programmkategorie, bei denen die Vielkerner ihren Vorteil voll ausspielen können. Noch besser ist 3D-Animation geeignet.

Um zu zeigen, wie sich mehr Kerne in der Praxis der Mediengestaltung auswirken, berechnen wir daher mit Cinema4D R15 ein echtes Projekt. Es wurde uns von dem freischaffenden Fotografen und Filmer Andreas Brauner zur Verfügung gestellt. Anders als beim Cinebench R15 werden damit die Einzelbilder eines 30-Sekunden-Films mit 25 fps berechnet. Dabei entstehen pro Sekunde aber nicht 25 Bilder, sondern 250.

Für die Weiterverarbeitung werden nämlich neben den Bildern der Objekte auch Beleuchtung und Effekte in einzelnen TIFF-Dateien gespeichert, die später in einem Compositing-Programm in Ebenen zusammengefügt werden. Dadurch muss etwa für eine Abdunklung einer einzelnen Szene nicht der gesamte Film neu gerendert werden. Der Rechenaufwand für die Bilder ist enorm: Auf einem Core i7-4770K braucht die Erstellung von 30 Sekunden Animation über 27,5 Stunden Renderzeit.

Da Cinema4D mehr Kerne stets nutzt, sinkt dieser Zeitaufwand mit dem 4960X und erst recht dem 5960X deutlich. Mit Ivy Bridge-E und sechs Cores sind nur noch 20 Stunden und 23 Minuten nötig, was den Arbeitsablauf bei der Produktion entscheidend beeinflussen kann: Das Rendering kann am Abend eines Arbeitstages gestartet werden und ist am Nachmittag des nächsten Tages fertig. Dann können noch Anpassungen vorgenommen werden, und wiederum einen Tag später liegt das hoffentlich korrekte Ergebnis vor. Mit 27,5 Stunden verschieben sich die Arbeiten, sofern nicht Nachtschichten eingelegt werden, immer um einen Tag mehr.

Mit dem 5960X ist der Film bereits nach 14 Stunden und 40 Minuten fertig, was noch mehr Spielraum für Überarbeitungen erlaubt, weil nicht einmal mehr einen Arbeitstag, inklusive der Nacht, gewartet werden muss. Wer das Rendering um 19 Uhr startet, kann am nächsten Morgen um 10 Uhr das Ergebnis überprüfen, und beispielsweise nach einer Konferenz mit Mitarbeitern schon mittags einen neuen Durchlauf starten.

Alle Plattformen, sowohl mit 4770K wie 4960X und 5960X liefen bei unseren Rendertests trotz 16 GByte Speicher mit je vier Modulen auch bei mehreren Durchläufen vollkommen stabil. Dass für tagelanges Rechnen also unbedingt ECC-Speicher nötig ist, scheint zumindest für Cinema4D nicht zuzutreffen.

Leistungsaufnahme mit deutlich höherer Effizienz

Allein an der TDP lässt sich der Energiebedarf moderner Prozessoren nicht beurteilen. Sie ist eine technische Angabe für PC-Hersteller, nicht das, was der Rechner ständig an Leistung aufnimmt. Beim 5960X zeigt sich das deutlich: Die TDP für die CPU allein ist mit 140 Watt angegeben, dennoch nimmt unsere Testplattform mit sparsamem Netzteil nur 146 Watt unter Last auf allen Kernen auf. Das gilt für ein sparsames 400-Watt-Netzteil. Soll für mehrere Grafikkarten ein 850-Watt-Modell genutzt werden, sind es unserem Fall 158 Watt.

Bei ruhendem Windows-Desktop ist die Leistungsaufnahme in einem effizienten PC auf 38 Watt zu drücken, mit weniger sparsamem Netzteil sind es noch 44 Watt. Alle Idle-Werte liegen deutlich unter denen des 4960X, unter Last benötigt der 5960X-PC aber im besten Fall 146 statt 136 Watt wie beim 4960X-System. Da dabei jedoch für rund 30 Prozent mehr Rechenleistung nur gut 7 Prozent mehr Energie aufgewendet werden müssen, ist der Haswell-E dennoch der deutlich effizientere Prozessor.

Nun vom 4960X umzusteigen, dürfte sich aber rein aus Gründen der Energieeinsparung kaum lohnen, selbst wenn um den 5960X herum eine Maschine gebaut werden soll, die stets unter Volllast steht. Bis die rund 1.500 Euro für CPU, Mainboard und RAM an Stromkosten eingepart sind, ist die Plattform längst veraltet.

Bei allen Betrachtungen der Leistungsaufnahme von Highend-CPUs ist neben dem Netzteil das Mainboard entscheidend. Unser verwendetes Rampage V von Asus ist auf Overclocking, nicht Effizienz getrimmt. Die große E-ATX-Platine bedingt allein schon längere Leitungen. Dass sich damit dennoch geringere Idle-Werte als beim 4960X ergeben, den wir auf einem recht sparsamen MSI-Mainboard gemessen haben, beeindruckt umso mehr. Auf beiden Boards haben wir alle Zusatzchips, Funkmodule und die LED-Beleuchtung für diese Messungen abgeschaltet. Mit all diesem Zubehör nimmt das Rampage V rund 10 Watt mehr auf.

Mit kleineren Mainboards und noch effizienterem Netzteil – unser Be Quiet ist nach 80 Plus Gold zertifiziert – sollten auch Haswell-E-Systeme zu machen sein, die an der 30-Watt-Grenze kratzen. Für eine komplett neue Plattform ist das eindrucksvoll, insbesondere die Hersteller von kleinen Workstations sollten diese Vorteile durch sorgfältige Konfiguration nutzen.

Fazit

Der Core i7-5960X markiert einen Umbruch. Intel setzt konsequent auf mehr Kerne, auch wenn der Takt dafür etwas geringer ausfällt. Ohne Übertaktung ist die Achtkern-Plattform bei geringer Last sogar sparsamer als die Sechskern-Vorgänger. Haben alle Cores viel zu tun, rechtfertigt die Mehrleistung die gering erhöhte Leistungsaufnahme völlig. Ein effizientes Netzteil ist dafür die Voraussetzung.

Auch wenn ein Drittel mehr Kerne für Medienschaffende, welche die Kosten einer Xeon-Workstation scheuen, zunächst verlockend scheinen, will ein Umstieg dennoch gut überlegt sein. Ein neues Mainboard und neuer Speicher sind neben der CPU in jedem Fall zu bezahlen – da war der unveränderte Preis der Highend-CPU für Intel fast schon Pflicht. Soll für Medienbearbeitung ohnehin ein komplett neuer Rechner angeschafft werden, weil der alte noch genutzt wird, ist der 5960X die bessere Wahl als der 4960X.

Das gilt vor allem, wenn Zukunftssicherheit wichtig ist. Da die entsprechenden Xeon-CPUs demnächst erst erscheinen, dürfte Intel die neue Plattform einige Jahre mit neuen Produkten pflegen. Das ist bei der Serie 4900 nun nicht mehr zu erwarten. Wer einen Rechner damit noch aufrüsten oder von 3900 auf 4900 umsteigen will, sollte das bald tun, denn irgendwann werden die älteren CPUs als Neuware rar und teuer. Ein aktuelles gutes Beispiel noch für X79-Boards ist der Xeon E5-2650 v2 mit acht Kernen bei 2,6 bis 3,4 GHz. Dafür muss das Board aber eine passende Firmware besitzen. Übertakter, die sich ihr Technikspielzeug etwas kosten lassen, haben ohnehin kaum eine Wahl als den 5960X, denn andere Achtkerner mit offenem Multiplikator gibt es sonst in diesen Leistungsdimensionen nicht.

Dass beim Start einer neuen Speichergeneration wie jetzt mit DDR4 die Produktauswahl so groß ist, stellt ebenfalls ein Novum dar. Da aber bisher fast ausnahmslos auf Overclocker zugeschnittene Module erhältlich sind, sind die Preise entsprechend hoch. Schon in einigen Wochen dürfte sich das ändern, wenn die DIMMs für Xeons verfügbar werden – dann ist auch viel Speicher zu Preisen von DDR3 zu erwarten.  (nie)

 

Zur Internetseite:

www.golem.de/news/

September 14th 2014
by

Weltweiter Betriebssystem-Markt: Windows 8.1 überholt Windows 8

Neuen Zahlen zur weltweiten Verbreitung von Betriebssystemen von StatCounter zufolge hat Windows 8.1 im August erstmals Windows 8 überholt. Windows 8.1 liegt mit 7,5 Prozent sogar deutlich vorne: Windows 8 kommt nur noch auf 6 Prozent.

“Nach einer durchwachsenen Reaktion auf Windows 8, vielleicht aufgrund seiner radikal erneuerten Optik, scheint Windows 8.1 User gewinnen zu können”, kommentiert StatCounter-CEO Aodhan Cullen. Betrachtet man nur Deutschland, liegt Windows 8.1 allerdings schon seit April vor Windows 8. In den USA war der Wechsel im Mai erfolgt.

Das StatCounter-Diagramm verzeichnet das langsame Ende von Windows XP (blau) und dien Aufstieg von Windows 8.1 (orange).

Zu bedenken ist auch, dass die als etwas zuverlässiger angesehenen Zahlen von Net Applications einen geringeren Abstand zwischen beiden Betriebssystemen ausweisen. Dort kommt Windows 8.1 auf 7,1 Prozent und Windows 8 auf 6,3 Prozent.

Windows 7 führt weltweit mit jetzt 50,3 Prozent Marktanteil. Gegenüber Juli mit 50,2 Prozent war erneut ein leichter Zuwachs zu verzeichnen. Das vom Support abgeschnittene Windows XP liegt mit 12,9 Prozent weiter auf Rang zwei. An dritter Stelle finden sich Apples Mac-OS-Versionen, die zusammen auf 7,8 Prozent kommen. Die Statistik, die Betriebssysteme für Desktops und Notebooks, Tablets und Konsolen umfasst, enthält zudem auch iOS mit 6,8 Prozent Marktanteil.

Über das 13 Jahre alte Windows XP sagt StatCounter, es “weigert sich zu sterben”. Der Support hatte im April geendet. Damals kam das OS noch auf 27 Prozent Marktanteil.

 

Homepage besuchen:

http://www.zdnet.de/88204508/

September 13th 2014
by

Gestohlene Zugangsdaten: Erhöhte Zugriffe auf Domainverwalter registriert

Gestohlene Zugangsdaten

Der US-Domainverwalter Namecheap vermerkt seit einigen Tagen deutlich erhöhte Login-Versuche. Die dabei genutzten Kontodaten sollen aus der Sammlung russischer Hacker stammen.

Seit einigen Tagen hat das Intrusion Detection System (IDS) des US-Domainverwalters Namecheap eine deutlich gestiegene Anzahl an Login-Versuchen registriert. Interne Untersuchungen hätten ergeben, dass die dabei verwendeten Login-Daten aus der Datenbank russischer Hacker stammen. Vor wenigen Tagen hatte das IT-Sicherheitsunternehmen Hold Security gemeldet, im Besitz von über einer Milliarde Zugangsdaten zu sein, die es von russischen Hackern erbeutet haben will.

Offenbar probieren Datendiebe die gestohlenen Zugangsdaten massenweise aus. Laut Namecheap hätten die Hacker dafür eine gefälschte Login-Seite erstellt, in der sie die Daten eingeben, um sich Zugang zu den Konten der Namecheap-Benutzer zu verschaffen. Der größte Teil der Zugangsversuche sei gescheitert, da die Passwörter oder die Kundendaten nicht mehr gültig seien, schreibt Namecheap in einem Blogeintrag.

Betroffene werden informiert

Dennoch habe das Unternehmen einige erfolgreiche Einlog-Versuche registriert. Die betroffenen Konten seien umgehend gesichert und deren Besitzer informiert worden, schreibt Namecheap. Die Kunden werden gebeten, ihre Identitäten zu verifizieren und erhalten von Namecheap daraufhin ein neues starkes Passwort. Ihnen wird außerdem geraten, die Zwei-Authentifizierung zu aktivieren, die Namecheap wie viele andere Unternehmen anbietet.

Außerdem werden betroffene Kunden darauf hingewiesen, dass die verwendeten Zugangsdaten nicht bei Namecheap gestohlen wurden. Einen erfolgreichen Einbruch habe es dort bislang nicht gegeben. Das weise darauf hin, dass die Daten auch bei anderen Webseiten verwendet werden. Die Kunden sollten auch dort ihre Zugangsdaten ändern.

IP-Adressen gesperrt

Um sich gegen die zunehmenden Login-Versuche zu wehren, liest Namecheap die IP-Adressen aus, von denen die Einwahlversuche stammen. Sie werden von den Servern des Unternehmens blockiert. Außerdem habe Namespace die Strafverfolgungsbehörden informiert.

Ob die bei Namecheap verwendeten Zugangsdaten tatsächlich aus der Datenbank stammen, die Hold Security aus Daten aus diversen Foren und anderen Quellen gesammelt hat, ist aber unklar. Hold Security war in die Kritik geraten, weil es besorgten Kunden nur einen kostenpflichtigen Dienst anbietet, um herauszufinden, ob ihre Daten zu den gestohlenen gehören.

 

Link zum Artikel:

http://www.golem.de/news/

September 12th 2014
by

Rdio: Gratis-Musikstreaming auch für Smartphones

Spotify-Konkurrent Rdio hat sein kostenloses, werbefinanziertes Musikstreaming-Angebot ausgebaut. Aber sofort können auch europäische Rdio-Nutzer auf Smartphones gratis die Musik ihrer Wahl hören.

Rdio bietet einen entweder kostenlosen/werbefinanzierten oder aber kostenpflichtigen/werbefreien Musikstreamingdienst an. Ab sofort können Rdio-Nutzer in Europa ihre Musik aber auch auf Smartphones ( iPhone , Android und Windows Phone) gratis streamen. Wer Werbung akzeptiert, kann von den Streaming-Servern von Rdio 30 Millionen Lieder abrufen. Sowohl auf PCs als auch auf Tablets und Smartphones – per Rdio-App.
 

Werbefrei kostet 
Wer den Musikstream werbefrei genießen möchte, kann das Gratis-Abonnement in ein kostenpflichtiges umwandeln. Ohne Werbung kostet Rdio 9,99 Euro im Monat.

 

Neue Funktionen

Zudem haben die Macher von Rdio ihren Streamingdienst um einige neue Funktionen erweitert: Home (ein personalisierter Feed mit Musik-Stories), Favoriten (die Lieblingslieder, Alben. Genres etc. der Nutzer) und Browse (hier kann man neu generierte Kanäle durchstöbern) und Trending (zum Entdecken von Stationen, Titel, Alben, Künstler oder Wiedergabelisten, die unter Rdio-Musikfans populär sind).
 
Rdio wurde im August 2010 gegründet, unter anderem von Janus Friis, der auch den mittlerweile von Microsoft aufgekauften VoIP-Dienst Skype sowie die Tauschbörse Kazaa aus der Taufe gehoben hat. Der Musikstreamingdienst mit derzeit laut Unternehmen 30 Millionen Liedern ist in 60 Ländern verfügbar und hat seinen Hauptsitz in San Francisco.

 

Ursprünglich veröffentlicht:

http://www.pcwelt.de/news/

September 8th 2014
by

IDC korrigiert PC-Prognose nach oben

Die Marktforscher von IDC haben ihre Zahlen zum weltweiten PC-Markt im Jahr 2014 korrigiert. Sie erwarten zwar immer noch einen Rückgang der Verkäufe von Notebooks und Desktop-PCs gegenüber dem Vorjahr, er wird aber weniger drastisch ausfallen als befürchtet. Konkret ist von 303 Millionen übers Jahr verkauften Einheiten die Rede.

 

Im Vorjahr waren 315 Millionen PCs verkauft worden. Das bedeutet einen Rückgang um 3,7 Prozent. Zuvor war IDC von 6 Prozent Rückgang ausgegangen.

Weiterhin sind es vor allem Firmen, [mit Material von Steven Musil, News.com]. IDC zufolge sind das Support-Ende für Windows XP, die große Nachfrage nach Chromebooks im Bildungsbereich und weniger Wettbewerb durch große Tablets die wichtigsten Faktoren hinter der leichten Besserung. Analyst Jay Chou kommentiert: “Programme zur Senkung der PC-Preise wie Windows 8.1 mit Bing haben ebenfalls für mehr PC-Absätze in einigen Segmenten geführt.”

Der Analyst beobachtet zudem eine allgemeine Hinwendung zu Mobil-PCs, schnellere Innovationen und eine Konzentration auf Preispunkte. “Trotzdem gibt es nur schwache Aussichten auf langfristig signifikantes PC-Wachstum, da die Anwender PCs immer mehr als nur eines von mehreren Computing-Geräten sehen.”

 

Im kommenden Jahr könnte der Markt immerhin von der Einführung von Windows 9 “Threshold” im Frühjahr profitieren. So lange seine Vorteile gegenüber Windows 8 nicht klar seien, könne man seine möglichen Auswirkungen auf den Markt aber nicht abschätzen, erklärt IDC. Bekannt ist vor allem, dass Windows 9 sich leichter mit Maus und Tastatur bedienen lassen wird als das Touch-optimierte Windows 8.

Vorerst prognostiziert IDC fürs kommende Jahr 291 Millionen verkaufte PCs. Die negative Wachstumsrate des Markts wird sich seiner Auffassung nach abschwächen.

Vor drei Wochen hatte IDC schon seine Jahresprognose für den weltweiten IT-Markt erhöht. Das Gesamtjahreswachstum wird währungsbereinigt 4,5 Prozent betragen. Ohne Smartphones wären [mit Material von Steven Musil, News.com] plus 3,1 Prozent. Heimanwender und Firmen ersetzen in unerwartetem Umfang ältere PCs und Notebooks. Das geht vorläufig zu Lasten des Tabletmarkts.

Gartner hingegen meldete im Juli erstmals seit zwei Jahren ein leichtes Wachstum des PC-Markts: Die Verkaufszahlen legten um 0,1 Prozent auf 75,8 Millionen Einheiten zu. Regionen wie EMEA und USA erzielten mit 8,6 beziehungsweise 7,4 Prozent sogar ein deutliches Plus. Lenovo vergrößerte seinen Vorsprung vor dem ehemaligen Marktführer Hewlett-Packard. Das Analystenhaus geht zudem davon aus, dass sich die Chromebook-Verkäufe bis 2017 nahezu verdreifachen werden.

[mit Material von Steven Musil, News.com]

 

 

Original:

[mit Material von Steven Musil, News.com]