Wie man bei einem Sony PRS-T1 die Autorisierung aufheben kann

In manchen Foren wird gerätselt wie man die Autorisierung des Sony PRS-T1 Ebook-Readers aufheben kann.
Die Adobe-Digital-Editions (Ver. 1.7.2) können nicht benutzt werden. Diese zeigen den PRS-T1 gar nicht an wie z.B. einen OYO.

Man muss die entsprechende Sony-Reader Software Reader for PC installieren um die Autorisierung durchzuführen. Die Installationssoftware befindet sich ja auf dem Reader.
Die Autorisierung habe ich über den Menüpunkt Bearbeiten -> Einstellungen bewerkstelligt.

In der Onlinehilfe von Reader for PC steht nun folgendes für das Aufheben der Autorisierung:

  1. Schalten Sie das Reader-Gerät ein und schließen Sie es dann mit dem mitgelieferten USB-Kabel an Ihren Computer an.
    Reader für PC wird startet, und das Reader-Symbol wird in der Quellenleiste angezeigt.
    Wenn „Automatischer Start“ deaktiviert ist, starten Sie Reader für PC manuell.
  2. Drücken Sie Umschalttaste+Strg auf der Tastatur.
  3. Klicken Sie links auf „Autorisierung aufheben“.
  4. Klicken Sie auf  neben „Autorisierung des angeschlossenen Geräts aufheben“.
    Alle von Ihnen erworbenen Inhalte werden vom Gerät gelöscht

Das ist aber falsch. Man kann in der Reader for PC Software sooft Umschaltaste+Strg drücken wie man will. Es erscheint gar nichts.

Es fehlt ein kleiner Satz, dass man dies über den Menüpunkt Bearbeiten -> Einstellungen machen muss.
Hier also der Weg zur Deautorisierung:

  1. Software Reader for PC starten
  2. Sony PRS-T1 Reader anschließen
  3. Umschalttaste+Strg drücken und gleichzeitig das Menü Bearbeiten -> Einstellungen öffnen
  4. Es erscheint ein Dialog in dem die Autorisierung aufgehoben werden kann:

Ich hoffe damit kommt man klar 😉

Nachtrag (01.01.2010): Die Autorisierung eines PCs lässt sich mit der Hilfe der Adobe Digital Editions aufheben. Man startet dazu die Software und drückt die Tastenkombination Strg+Umschalt+D. Damit wird die Autorisierung für diesen PC aufgehoben. Verschlüsselte eBooks lassen sich dann nicht mehr lesen.

Für was ist der Makro %(PreprocessorDefinitions) gut ?

In den C++ Compilereinstellungen finden sich ein vorgegebener Makro %(PreprocessorDefinitions) in den C++ Präprozessor Definitionen. Die Verwendung dieses Makros ist nicht ganz offensichtlich.

Dieser Makro sollten in jedem Fall nicht entfernt werden, denn Sie dienen der Übernahme einiger Einstellungen aus der General-Seite für die C++ Projekte. Zum Beispiel werden die Einstellungen für Unicode und MBCS über den Makro %(PreprocessorDefinitions) in die allgemeinen Compiler-Einstellungen übernommen (die entsprechenden Defines sind _UNICODE; UNICODE; _MBCS ).
Erzeugt man eine DLL wird zusätzlich _WINDLL gesetzt.
Setzt man ATL Optionen in der General Seite wird auch über die %(PreprocessorDefinitions) _ATLDLL bzw. _ATL_STATIC_REGISTRY gesetzt oder zurückgesetzt.
Gleiches gilt, wenn die MFC als shared DLL verwendet wird. In diesem Fall wird der Define _AFXDLL zusätzlich gesetzt.

Löscht man also %(PreprocessorDefinitions) dann werden alle diese Einstellungen nicht mehr  korrekt übernommen.

Anmerkung:
Bei dem Linker Makro %(AdditionalDependencies) habe ich eine ähnliche Verwendung vermutet, konnte aber keine direkte Beziehung zur Seite General herstellen.

Obwohl es auch hier Einflüsse auf die Linkereinstellungen gibt bei Änderungen in den General-Einstellungen. Werden allerdings die MFC als zusätzliche Bibliothek ausgewählt werden die Standard-LIBs aus dem SDK komplett entfernt. Hier gibt die MFC Bibliothek selbst vor in welchen zusätzlichen Libs, des SDK gesucht werden soll über #pragma comment(lib,..).

Mein 13. Award als deutscher MVP für Visual C++

Es ist mal wieder Oktober geworden und wie auch in den letzten Jahren erhielt ich folgende Email:

Sehr geehrte(r) Martin Richter,
herzlichen Glückwunsch! Wir freuen uns, Ihnen den Microsoft® MVP Award 2011 verleihen zu können! Diese Auszeichnung wird an herausragende, führende Mitglieder der technischen Communities verliehen, die ihre wertvollen praktischen Erfahrungen mit anderen Menschen teilen. Wir schätzen Ihren außerordentlich bedeutenden Beitrag in den technischen Communities zum Thema Visual C++ im vergangenen Jahr hoch ein.

Damit habe ich nun 13 MVP Awards für meine Aktivitäten in den C++ Communities erhalten ❗

OLE DB für den SQL Server wird es nur noch bis zur Version mit dem Codenamen „Denali“

Es ist erstaunlich von wie viel Technologie, sich Microsoft aktuell verabschiedet, oder Wege einschlägt, die manchen (zumindest mich) wirklich überraschen. Oder vielleicht überrascht es auch nicht, weil man gerade mit der Unberechenbarkeit der Branche rechnen muss!

OLE DB war vor Jahren die Technologie und jedem Entwickler wurde geraten von ODBC auf OLE DB umzusteigen, oder zumindest bei neuen Projekten OLE DB den Vorzug zu geben. Die höhere Performance und die größere Flexibilität haben bei weitem, die etwas komplexere Technik aufgewogen. Und Dank der guten ATL Client-Klassen war OLE DB auch zu handhaben.

Nun ist Schluß damit! Der nächste SQL-Server mit dem Codenamen Denali wird die letzte Version sein, die OLE DB unterstützen wird, so ist hier zu lesen:
http://blogs.msdn.com/b/sqlnativeclient/archive/2011/08/29/microsoft-is-aligning-with-odbc-for-native-relational-data-access.aspx

Liest man die Kommentare aufmerksam, dann scheint es daran zu liegen, dass Microsoft Probleme hat, OLE DB in der Cloud vernünftig zum laufen zu bekommen. Microsoft macht es sich scheinbar einfach und schießt eine ganze Technologie ab, die mal als „die Technik“ eingeführt wurde.
D.h. eine langsamere Technik wird nun der Standard werden.
Für mich wieder mal eine Entscheidung, die sich mir in keiner Weise erklärt.

Ich verfolge die Diskussion um den MS-SQL Server nicht permanent und so ist mir dieser Artikel erst jetzt untergekommen.

Mehr Infos auch in diesem Thread, der eine kleine FAQ enthält:
http://social.technet.microsoft.com/Forums/en/sqldataaccess/thread/e696d0ac-f8e2-4b19-8a08-7a357d3d780f

Heftig finde ich die Antwort auf Frage 6, die einem auch kaum Hoffnung macht mit einem älteren Client evtl. noch auf den neuen Server zugreifen zu können:

Question6: If I have an OLE DB application that I write for Denali, will it be supported on a post Denali version of SQL Server that is released during the life of Denali?

Answer: No, in fact we may explicitly block the OLE DB applications on post-Denali versions of SQL Server. It is recommended that you plan your migration soon to ODBC, if you want to start using newer versions of SQL Server as soon as they release.

PS: Wie erkläre ich wohl meinen Kunden, die auf einmal 10%-30% langsamere Datenzugriffe haben werden, gerade wenn es größere Datenmengen geht ?  Werden die mir glauben, wenn ich sage: Microsoft will es so?  🙁