https://www.amazon.de/Amazon-Generation-Intelligenter-Lautsprecher-Schwarz/dp/B01DFKBG54/ref=pd_rhf_se_s_cp_0_2?_encoding=UTF8&pd_rd_i=B01DFKBG54&pd_rd_r=Y1RQ0GF86PP3NXBKVPPJ&pd_rd_w=JY2iQ&pd_rd_wg=rk5Xk&psc=1&refRID=Y1RQ0GF86PP3NXBKVPPJ https://www.amazon.de/dp/B06ZXQV6P8/ref=fs_rad Habe erstmals dieses Teil in Aktion gesehen und gehört. War sehr erstaunt über die sehr gute Spracherkennung. Hat auch einen recht guten Sound für seine Größe! Könnte man mit diesen Teil eigene Dateien vom PC ,Handy oder .... abrufen. Sinn dieser Geschichte das steuern einer Modellbahn. ..und es soll am Anfang auch nur der "AHA Effekt" erreicht werden. Viel leicht hat das aber auch schon einer gemacht. Ich will nicht 10 dazu passende Schaltempfänger kaufen müssen. MfG
:
Bearbeitet durch User
Alexa ist zwar allgemein nicht die alleroffenste Platform, aber du kannst eigene sogenannte "Skills" erstellen. Die können auslösen was du willst. Was die Komplexität der Sprach-Kommandos angeht ist allerdings relativ schnell nach den offiziellen Skills das Ende der Fahnenstange erreicht. Also du musst dir knackige Formulierungen einfallen lassen. Noch haben wir keinen "Data" im Wohnzimmer ;) EDIT: Erkläre mal genauer wie die Bahn gesteuert werden soll. Auf was für eine Schnittstelle reagiert die?
:
Bearbeitet durch User
Die Teile sind Datensammler in bester Ausführung. Das gesprochene nach dem Befehl wird doch Zentral ausgewertet (und gespeichert) Viel leicht ist das Teil auch neugieriger als die meisten sich denken vermögen!
Al. K. schrieb: > Die Teile sind Datensammler in bester Ausführung. > Das gesprochene nach dem Befehl wird doch Zentral ausgewertet > (und gespeichert) > Viel leicht ist das Teil auch neugieriger als die meisten sich denken > vermögen! Willst du Antworten auf deine Eingangsfrage, oder soll das ein Diskusionsthread zu diesem schon hunderte mal durchgekauten Thema werden? Das mit dem "vieleicht neugieriger als gedacht" wurde mit Wireshark falsifiziert. Und ganz ehrlich, Amazon hätte kein Interesse daran gegen ihre AGBs zu verstossen. Sie wissen ganz genau dass das ganze Konzept noch auf etwas wackeligen Beinen steht und ein Vertrauensverlust, der Todesstoss wäre. Mehr sage ich zu diesem Part aber nicht - Habe ich schon vielfach durch - und nutze Alexa weiterhin ;)
:
Bearbeitet durch User
Alex G. schrieb: > EDIT: Erkläre mal genauer wie die Bahn gesteuert werden soll. Auf was > für eine Schnittstelle reagiert die? Alexa->Sprachauswertung Aufruf der "Skills" was das auch ist Auswertung der Skills mit einen Controller und Umsetzung in Verständliche Digitalen Befehle welche der Bahncontroller versteht oder einen Tastensatz fern bedient. Es könnte auch ein Anderes techn. Gerät sein! Gibt es schon eine "Gebrauchsanleitung" zum erstellen der Skills und dessen Auswertung? Mir geht es um die techn. Nutzung im Modellbahnbereich! MfG
Nein, natürlich ist es streng geheim wie man Skills prorgammiert und natürlich findet Google dazu auch keine 100 Tutorials ;) Die Anbindung an eine Mikrocontroler ist sogar direkt möglich wenn du ein Funkmodul für Homeautomation daran anschließt. Alexa hat irgendwelche Antennen dafür drin. Was universell geht, ist wenn du auf deinen controlern oder auf einem zentralen Gerät wie einen Raspberry, einen webservice (im lokalen Netz) laufen lässt. Damit kannst du dann in JavaScript (worin die Skills programmiert werden) Kontakt aufnehmen und Daten senden. Du kannst eine einheitliche Schnittstelle bauen, so dass der Skill nur die Informationen des Sprachbefehls einfach weiterleitet.
Alex G. schrieb: > Du kannst eine einheitliche Schnittstelle bauen, so dass der Skill nur > die Informationen des Sprachbefehls einfach weiterleitet. Das war mein grober Gedankengang. Werde mich mal etwas damit beschäftigen, habe ja erst Gestern gedanklich damit experimentiert.
Alex G. schrieb: > Du kannst eine einheitliche Schnittstelle bauen, so dass der Skill nur > die Informationen des Sprachbefehls einfach weiterleitet. Wenn ich es richtig verstanden habe, braucht man dafür aber eine Webadresse, an die der Skill den ausgewerteten Befehl weiterschickt, und die man dann per Raspi abfragen kann. Denn der Skill kann ja nicht direkt an Deine - womöglich dynamische - eigene IP senden. Also etwa so: Alexa Sprachaufnahme => Amazon Auswertung => Skill Befehl erkennen => Webadresse Befehl senden => Raspi Befehl abfragen Der Raspi muss dazu die Adresse pollen. Ich glaub Amazon bietet dafür was auf AmazonAws selbst an. Oder hab ich das verwechselt?
Hmm, bin leider selbst noch nicht dazu gekommen meine eigenen Skills zu schreiben. Hatte angenommen das javascriptnliefe auf dem Alexa Gerät nachdem der Befehl auf den Servern interprettiert wurde. Irgendwie muss auf jeden Fall information zurück zum Alexa gelangen, denn sonst würde ja das Homeautomation über die integrierten Antennen nicht gehen.
Nimm am besten ein Raspberry Pi und nutz' statt Alexa eine Spracherkennungssoftware. Am besten Open Source Bibliotheken. Ein guter Lautsprecher bzw. eine kleine Box fürs Smartphone wäre doch ausreichend. Ich würde nie so eine Alexa fertig kaufen sondern mir eher eine selbst bauen?
@TO: vielleicht kannst du mit meiner Lösung was anfangen. Auf einem RaspPi läuft FHEM und eine HUE-Bridge(emulation) Die HUE-Emulation stellt Geräte für Alexa bereit(ein,aus,0-100%) und in der Alexa App kann man den Geräten Namen geben. FHEM führt dann die gewünschte Aktion aus und baut ein wenig Automatisierung mit ein. kein extra Skill oder DynDNS nötig. Du könntest einfach bei jedem Gerät-Ein Befehl eine Aktion ausführen und das Gerät gleich wieder ausschalten. (oder das beliebig mit anderen Parametern kombinieren) EDIT:Google-assistant oder Amazon Sprachdingsbums gleich auf dem RasPi laufen zu lassen ist auch eine Alternative(wenn du gerne frickelst) Für reine Spracherkennung Android-->FHEM gibt es glaube ich auch was Offline und reines Speech2Text, kenn ich mich aber nicht aus.
:
Bearbeitet durch User
Es ist doch vollkommen unnötig das übers Internet laufen zu lassen. Der Quatsch mit Alexa & Co. ist dann wohl das Sahnehäubchen. Sorry, aber das ergibt keinen Sinn. Reaktion auf Sprache, Steuerung der Modellbahn, Soundwiedergabe evtl. ... das kann alles ein Raspberry Pi. Der Thread-Ersteller hat wohl zu viel Geld und will es irgendwie sinnlos ausgeben, um danach ein-&dasselbe zu erreichen
Pascal S. schrieb: > Der Thread-Ersteller hat wohl zu viel Geld und will es irgendwie sinnlos > ausgeben, um danach ein-&dasselbe zu erreichen Alexa bekomme ich gebraucht für 20-25 Euro Wenn ich eigene Sounddateien abrufen kann (Kollege testet ob Wunschtitel abrufbar sind) dann kann in diesen Dateien der Cod liegen(z.B.Frequenz,Morsecode,usw.) Der wird mit MEINEN Controller ausgewertet. Ist doch einfach wenn ich eigene Dateien abrufen kann!
Chr. M. schrieb: > Auf einem RaspPi läuft FHEM und eine HUE-Bridge(emulation) > Die HUE-Emulation stellt Geräte für Alexa bereit(ein,aus,0-100%) > und in der Alexa App kann man den Geräten Namen geben. > FHEM führt dann die gewünschte Aktion aus und baut ein wenig > Automatisierung mit ein. Das geht aber nur in einer Richtung, oder? Das heisst, FHEM kann hier über Alexa keine Rückmeldung geben? Pascal S. schrieb: > Reaktion auf Sprache, Steuerung der Modellbahn, Soundwiedergabe evtl. > ... das kann alles ein Raspberry Pi. Wow, es gibt eine Offline-Spracherkennung, die was anderes kann als vorher angelernte Befehle auszuführen, und auch noch von verschiedenen Personen? Der Witz bei Alexa ist ja, dass "in der Cloud" mehr Rechenleistung und mehr Sprachsamples zur Verfügung stehen, als jemals auf Deinen Raspi passen. Deswegen muss man eben nicht jeden Befehl anlernen. Mit angelernten Befehlen ging das mehr oder weniger gut vor 20 Jahren schon auf dem PC. Aber eben nur, wenn man das dann genauso gesprochen hat und keinen Schnupfen hatte und nur bei einer Person...
Karl K. schrieb: > Das geht aber nur in einer Richtung, oder? Das heisst, FHEM kann hier > über Alexa keine Rückmeldung geben? ..damit kann ich leben! Bei allen Anderen muss ich dir auch zustimmen!
:
Bearbeitet durch User
Al. K. schrieb: > Wenn ich eigene Sounddateien abrufen kann > (Kollege testet ob Wunschtitel abrufbar sind) > dann kann in diesen Dateien der Cod liegen(z.B.Frequenz,Morsecode,usw.) > Der wird mit MEINEN Controller ausgewertet. Du willst aber vermutlich sagen "Zug 3 Stop" und nicht "spiele das Lied Zug 3 Stop" ? Der oben vorgeschlagene selbstprogrammierte Skill ist auch quatsch, weil wenn es kein "offizieller" Skill ist heisst der Befehl dann nicht "Alexa, Zug 1 Stop" sondern "Alexa sage dem Skill Zugesteuerung Zug 1 Stop" Der einfachste Weg ist vermutlich die oben genannte HA Bridge, dazu brauchst aber zusätzlich einen Raspi -FHEM allerdings nicht, kannst auch direkt z.B. Bash-Skripte aufrufen
Karl K. schrieb: > Das geht aber nur in einer Richtung, Manchmal, wenn es zu lange dauert, kommt eine Fehlermeldung normal schaltet erst das Gerät und dann kommt ein OK. > Deswegen muss man eben nicht jeden Befehl anlernen. Die Spracherkennung läuft auf jedem Android Handy offline nur die Auswertung erfolgt in der Cloud. Kann jeder probieren: Flugzeugmodus an und SMS diktieren. Eine 'brauchbare' Steuerung lässt sich mit ertaunlich wenig Code realisieren.
Alex G. schrieb: > Hatte angenommen das javascriptnliefe auf dem Alexa Gerät nachdem der > Befehl auf den Servern interprettiert wurde. > Irgendwie muss auf jeden Fall information zurück zum Alexa gelangen, > denn sonst würde ja das Homeautomation über die integrierten Antennen > nicht gehen. Nach meinem aktuellen Kenntnisstand wird der Befehl in der Cloud interpretiert und dann auch dort ausgeführt. Ausnahme sind die Smart Home Verbindungen, die vom Alexa Gerät direkt angesteuert werden. Alles andere geht von den Amazon Servern zu dem Server der Skill Betreiber. D.h. dein Skill müsste deinem Webserver etwas melden, der dann wiederum mit deinem Controller zu Hause kommuniziert. Aus den folgende Gründen wird Amazon an diesem Umweg vermutlich auch nichts ändern. 1) Der Skill funktioniert immer, wenn auch die Verbindung zu Amazon klappt. Also keine Probleme mit komisch konfigurierten Firewalls, die bestimmte IPs blockieren. 2) Skills können nicht im lokalen Netzwerk rumschnüffeln.
man muss halt aufpassen was man sagt, und jedem Gast der zu besucht kommt, eine Anleitung in die Hand drücken, was er sagen darf und was nicht.. https://www.tagesspiegel.de/weltspiegel/amazon-lautsprecher-alexa-sendet-versehentlich-aufgenommenes-gespraech/22603892.html ;-)
Heinz R. schrieb: > Der einfachste Weg ist vermutlich die oben genannte HA Bridge, dazu > brauchst aber zusätzlich einen Raspi -FHEM allerdings nicht, kannst auch > direkt z.B. Bash-Skripte aufrufen ..wenn ich einen selbst gewählten Titel(Dateinamen) aufrufen kann, heißt das nicht das der Inhalt des Titels ein Lied sein muss, es kann auch pfeifen oder morsen .
Pascal S. schrieb: > Es ist doch vollkommen unnötig das übers Internet laufen zu lassen. Der > Quatsch mit Alexa & Co. ist dann wohl das Sahnehäubchen. > > Sorry, aber das ergibt keinen Sinn. > > Reaktion auf Sprache, Steuerung der Modellbahn, Soundwiedergabe evtl. > ... das kann alles ein Raspberry Pi. > > Der Thread-Ersteller hat wohl zu viel Geld und will es irgendwie sinnlos > ausgeben, um danach ein-&dasselbe zu erreichen Diese Darstellung halte ich freundlich ausgedrückt für ziemlich irreführend. Ich persönlich finde sowas wie Alexa & Google Home grundsätzlich sehr interessant, aber beide Lösungen kommen mir eben genau wegen des Online-Zwangs bzw. der damit verbundenen Nebenwirkungen nicht in's Haus. Ich will eine rein offline funktionierende Lösung, am liebsten tatsächlich mit einem Raspberry Pi, genau wie Du das skizzierst. Aber in der Praxis scheitert das bislang nun mal an der fehlenden, wirklich guten Spracherkennung. Spracherkennung unter Linux steckt bislang immer noch vglw. in den Kinderschuhen, ist bislang vglw. kompliziert zu installieren und einzurichten, und dann funktioniert es trotzdem nur nach mühseligem Anlernen etc.. Von einer Spracherkennung mit Top-Qualität, ohne Anlernen etc., wie es eben Google und Amazon bieten, ist das leider meilenweit entfernt. Mozilla's "Common Voice"-Projekt könnte da in naher Zukunft einen grossen Schritt in die richtige Richtung bringen, aber m.W.n. ist das bislang trotzdem noch keine praktikable Lösung (bislang nur englisch, Raspberry Pi dafür noch zu langsam etc.).
Joachim S. schrieb: > Aber in der Praxis scheitert das bislang nun mal an der fehlenden, > wirklich guten Spracherkennung. Die Info ist uralt. Spracherkennung ist ziemlich ausentwickelt, das funktioniert. Sprecher und Sprachübergreifend, nur von Grammatik weiss die nix. Habe es oben eh schon geschrieben: Nimm irgenein Smartphone, schalt den Flugmodus an und diktier eine SMS.
Joachim S. schrieb: > aber beide Lösungen kommen mir eben genau wegen des > Online-Zwangs bzw. der damit verbundenen Nebenwirkungen nicht in's Haus. Muss man halt so aufbauen, dass es ein Fallback auf normale Hand / Touchsteuerung gibt, wenn Internet ausfällt. Die Online-Lösung darf nur Komfortgewinn sein, aber sowas wie vor einiger Zeit, als Heizungen kalt blieben, weil bei der Telekom ein Server ausfiel darf halt nicht passieren. Dazu hab ich schon zu viel Ausfälle bei DSL gehabt, als dass ich mich von einem Internetzugang abhängig machen würde.
Al. K. schrieb: > ..wenn ich einen selbst gewählten Titel(Dateinamen) aufrufen kann, heißt > das nicht das der Inhalt des Titels ein Lied sein muss, es kann auch > pfeifen oder morsen . sorry, da hast mich jetzt missverstanden :-) Aber ich glaube zugegeben, Du lässt das Ganze erst mal lieber bleiben, so beeindruckst Du niemand :-)
Heinz R. schrieb: > Aber ich glaube zugegeben, Du lässt das Ganze erst mal lieber bleiben, > so beeindruckst Du niemand :-) Wenn Du hier nur textest um Andere zu beeindrucken, dann ist das Deine Sache. Ich habe das nicht nötig, warum auch?
Al. K. schrieb: > Heinz R. schrieb: >> Aber ich glaube zugegeben, Du lässt das Ganze erst mal lieber bleiben, >> so beeindruckst Du niemand :-) > > Wenn Du hier nur textest um Andere zu beeindrucken, dann ist das Deine > Sache. > Ich habe das nicht nötig, warum auch? Glaub das bezog sich eher darauf dass du das ganze Projekt ja nur wegen einem "AHA Effekt" in angriff nehmen willst :)
Al. K. schrieb: > Wenn Du hier nur textest um Andere zu beeindrucken, dann ist das Deine > Sache. > Ich habe das nicht nötig, warum auch? Sorry, hatte mich veilleicht etwas unglücklich ausgedrückt. Wenn Du eine Sounddatei abspielen willst, egal ob DTMF, Morsecode oder sonst was, wirst Du Alexa sagen müssen " Spiele das Lied...." Ein Alexa, Zug 1 Stop" wird mit normalen Mitteln niemals das abspielen eines Soundfiles auslösen.
Alex G. schrieb: > Glaub das bezog sich eher darauf dass du das ganze Projekt ja nur wegen > einem "AHA Effekt" in angriff nehmen willst :) Erst einmal wegen dem AHA Effekt richtig, jedes Jahr bei der Hauptausstellung des Clubs sollte immer etwas Neues dabei sein und das wäre dazu mein Beitrag. Eine Modellbahn welche selbständig von Kindern bedient wir ist ja schon 3 Jahre alt. Hier verbessere ich die Bedienung ständig und erweitere die Aktionen. Habe schon seit 3 Jahren versucht andere Clubs zu finden welche eine freie Bedienung für Gäste anbieten, ohne Erfolg. Die Akzeptanz dazu ist auch bei den Clubs sehr gering, obwohl durch die Digitalisierung es recht einfach ist! Heinz R. schrieb: > Spiele das Lied...." Spiele das Lied.... " Zug1 Stopp", auch das macht Kindern Spaß. Vielleicht kann man Befehle auch bald selbst definieren!
:
Bearbeitet durch User
Al. K. schrieb: > Die Akzeptanz dazu ist auch bei den Clubs sehr gering, obwohl durch die > Digitalisierung es recht einfach ist! Dazu muss man seine Technik sehr gut im Griff haben, denke ich. Wenn ich mir das Zerstörungspotential von Jungs in bestimmten Altersgruppen ansehe, macht es denen sicher einen riesen Spass, zwei Züge aufeinander losrasen zu lassen. Schön, wenn dann die Sicherheitstechnik greift. Ist nicht böse gemeint, wir waren alle mal Kinder und bei manchen verliert sich das nie. Sonst gäbe es "Nicht Nachmachen!" nicht.
Karl K. schrieb: > Dazu muss man seine Technik sehr gut im Griff haben, denke ich. Wenn ich > mir das Zerstörungspotential von Jungs in bestimmten Altersgruppen > ansehe, macht es denen sicher einen riesen Spass, zwei Züge aufeinander > losrasen zu lassen. Schön, wenn dann die Sicherheitstechnik greift. Das mach ich bei der Analogbahn schon 3 Jahre, da gibt es keine gewollten Unfälle. Sind aber nur sinnvoll Max 6 Züge einsetzbar. Das zusätzlich mit Alexa zu machen ist schon I.O. wobei der Touch Monitor den Vorrang hat
:
Bearbeitet durch User
Chr. M. schrieb: > Joachim S. schrieb: >> Aber in der Praxis scheitert das bislang nun mal an der fehlenden, >> wirklich guten Spracherkennung. > > Die Info ist uralt. > Spracherkennung ist ziemlich ausentwickelt, das funktioniert. > Sprecher und Sprachübergreifend, nur von Grammatik weiss die nix. > > Habe es oben eh schon geschrieben: > Nimm irgenein Smartphone, schalt den Flugmodus an und diktier eine SMS. Das ist aber doch garantiert irgendeine proprietäre Google-Software speziell für Android, und keine wirklich "freie" Open Source-Software mit "freien" Sprach-Daten etc., die man sich völlig einfach und problemlos auf einem beliebigen Linux-System wie eben einem Raspberry Pi installieren kann. Falls doch, nenne bitte den Namen des entsprechenden Linux-Software-Pakets, denn an sowas bin ich wirklich brennend interessiert. Übrigens wollte ich das mit der Offline-Spracherkennung unter Android eben mal ausprobieren. Habe es auf zwei Smartphones, einmal mit Android 7.0, einmal mit Android 7.1.2 versucht. Bei dem einen erscheint, wenn ich einen SMS-Text eingeben will, ein Mikrofon-Symbol - wenn ich das betätige und spreche, passiert aber gar nichts. Bei dem anderen gibt es erst gar kein Mikrofon-Symbol. Ist vermutlich irgendeine Google-Funktion, die man in den Einstellungen aktivieren muss, und die, wenn aktiviert, dann doch wieder irgendwelche Daten an die Google-Server schickt...
:
Bearbeitet durch User
..Alexa antwortet bei Aufruf eines unbekannten Titels: "Kann den Titel in deiner Playlist nicht finden" Also können meiner Meinung eigene Wunschlieder eingefügt werden. Der eigene Titel könnte dann auch "Kirche Licht an" heißen und codiert pfeifen oder morsen. Pfeifen oder morsen mit Controller auswerten und Aktion starten. Mein Kollege will demnächst versuchen eigene Playlist zu testen. Wenn das schon einer getan hat, wäre eine Information darüber sehr nett. Danke
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.