Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

1.087 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

09.02.2025 um 15:51
@uatu Vielleich könnte DeepSeek auch bestimmen, wie hoch der Salzgehalt im Wasser sein müsste, damit die normale Coca Cola - Dose nicht untergeht. Und ob der Salzgehalt des Toten Meeres dafür ausreichen würde?


melden

Künstliche Intelligenz

09.02.2025 um 16:29
Zwischen den einzelnen Systemen gibt es anscheinend noch ziemlich starke Unterschiede.

GPT-4o mini plappert nach wie vor nach:
»Ist seitens der EU ein Verbot für PKW mit Verbrennungsmotor geplant?

Ja, die EU plant, ab 2035 den Verkauf neuer PKW mit Verbrennungsmotoren zu verbieten. Dieses Vorhaben ist Teil der Bemühungen, die CO2-Emissionen zu reduzieren und die Klimaziele zu erreichen. Es ist jedoch wichtig zu beachten, dass es noch Diskussionen und Verhandlungen zu diesem Thema gibt, und die genauen Details können sich im Laufe der Zeit ändern. Wenn du weitere Informationen benötigst, stehe ich dir gerne zur Verfügung!


»Sind davon auch PKW mit Verbrennungsmotoren betroffen, die mit Wasserstoff betrieben weden?

Ja, PKW mit Verbrennungsmotoren, die mit Wasserstoff betrieben werden, sind ebenfalls betroffen. Wasserstoffbetriebene Fahrzeuge können zwar als umweltfreundlicher angesehen werden, da sie bei der Verbrennung von Wasserstoff nur Wasserdampf als Emission erzeugen, jedoch fallen sie in die Diskussion über die Zukunft der Mobilität und die Reduzierung von fossilen Brennstoffen. Es ist wichtig, die gesamte Lebenszyklusanalyse und die Quelle des Wasserstoffs zu berücksichtigen, um die Umweltauswirkungen vollständig zu verstehen. Wenn du weitere Fragen hast, stehe ich dir gerne zur Verfügung!
Stimmt leider größtenteils nicht. Wird aber in der Presse und diversen Parteien so vermittelt.


Deepseek scheint zumindest zu verstehen, was das eigentliche Problem ist und spricht schon im ersten Satz von einem  De-facto-Verbot:
»Ist seitens der EU ein Verbot für PKW mit Verbrennungsmotor geplant?

Ja, die Europäische Union (EU) plant ein De-facto-Verbot für Neuwagen mit Verbrennungsmotor ab dem Jahr 2035. Dies ist Teil der Bemühungen der EU, die Klimaziele des European Green Deal zu erreichen und die CO₂-Emissionen im Verkehrssektor deutlich zu reduzieren.
Hintergrund und Beschluss:
• Im Oktober 2022 einigten sich das EU-Parlament, die EU-Mitgliedstaaten und die EU-Kommission auf ein Gesetz, das vorsieht, dass ab 2035 nur noch Neuwagen verkauft werden dürfen, die keine CO₂-Emissionen ausstoßen.
• Dies bedeutet, dass ab 2035 keine neuen Benzin- oder Dieselautos mehr zugelassen werden dürfen. Stattdessen sollen elektrische Fahrzeuge (Batterieelektrische Fahrzeuge, BEV) und andere emissionsfreie Antriebe (z. B. Wasserstoff-Brennstoffzellenfahrzeuge) den Markt dominieren.
Ausnahmen und Flexibilitäten:
• Bestandsfahrzeuge: Das Verbot gilt nur für Neuwagen. Fahrzeuge mit Verbrennungsmotor, die vor 2035 zugelassen wurden, dürfen weiterhin genutzt und gebraucht verkauft werden.
• E-Fuels: Nach langen Diskussionen wurde eine Ausnahmeregelung für synthetische Kraftstoffe (E-Fuels) beschlossen. Hersteller können weiterhin Verbrennungsmotoren produzieren, wenn diese ausschließlich mit E-Fuels betrieben werden, die klimaneutral sind. Allerdings ist die Umsetzung dieser Regelung noch unklar und könnte technisch und regulatorisch komplex sein.
Ziele der EU:
• Klimaschutz: Der Verkehrssektor ist einer der größten Verursacher von CO₂-Emissionen in der EU. Das Verbot soll dazu beitragen, die Klimaziele zu erreichen und die Luftqualität in Städten zu verbessern.
• Innovation und Wettbewerbsfähigkeit: Die EU möchte die Automobilindustrie dazu anregen, in emissionsfreie Technologien zu investieren und ihre globale Wettbewerbsfähigkeit zu stärken.
Kritik und Herausforderungen:
• Industrie: Einige Automobilhersteller und Verbände kritisieren das Verbot als zu streng und warnen vor hohen Kosten und dem Verlust von Arbeitsplätzen.
• Infrastruktur: Es gibt Bedenken, ob die Ladeinfrastruktur für Elektrofahrzeuge bis 2035 ausreichend ausgebaut sein wird.
• E-Fuels: Die Rolle von E-Fuels bleibt umstritten, da ihre Herstellung energieintensiv und teuer ist.
Fazit:
Die EU plant ein Verbot für Neuwagen mit Verbrennungsmotor ab 2035, um die Klimaziele zu erreichen. Ausnahmen gibt es möglicherweise für Fahrzeuge, die mit klimaneutralen E-Fuels betrieben werden. Das Verbot ist ein wichtiger Schritt in der europäischen Klimapolitik, aber es gibt noch Herausforderungen bei der Umsetzung und Akzeptanz.

»Sind davon auch PKW mit Verbrennungsmotoren betroffen, die mit grünem Wasserstoff betrieben werden?

Grundsätzlich sind PKW mit Verbrennungsmotoren, die mit grünem Wasserstoff betrieben werden, von dem geplanten EU-Verbot für Neuwagen mit Verbrennungsmotor ab 2035 nicht direkt betroffen, da sie keine CO₂-Emissionen ausstoßen. Allerdings gibt es einige wichtige Nuancen und Rahmenbedingungen, die zu beachten sind:
1. Definition des Verbots:
• Das EU-Verbot ab 2035 betrifft Neuwagen, die CO₂-Emissionen ausstoßen. Fahrzeuge, die mit grünem Wasserstoff betrieben werden, gelten als emissionsfrei, da bei der Verbrennung von Wasserstoff nur Wasser als Abgas entsteht.
• Somit wären Wasserstoff-Verbrennungsmotoren theoretisch nicht vom Verbot betroffen.
2. Technologie und Marktreife:
• Wasserstoff-Verbrennungsmotoren sind derzeit noch nicht weit verbreitet und spielen im Vergleich zu Brennstoffzellenfahrzeugen (die Wasserstoff elektrochemisch in Strom umwandeln) eine untergeordnete Rolle.
• Die Automobilindustrie konzentriert sich stärker auf Batterieelektrische Fahrzeuge (BEV) und Brennstoffzellenfahrzeuge (FCEV) als auf Wasserstoff-Verbrennungsmotoren.
3. Regulatorische Anerkennung:
• Ob Wasserstoff-Verbrennungsmotoren explizit von der Regelung ausgenommen werden, hängt von der genauen Ausgestaltung der EU-Regulierung ab. Bisher liegt der Fokus der EU auf emissionsfreien Antrieben, zu denen auch Wasserstoff-Verbrennungsmotoren gehören könnten, sofern sie nachweislich keine CO₂-Emissionen verursachen.
4. E-Fuels und Wasserstoff:
• Die EU hat eine Ausnahmeregelung für synthetische Kraftstoffe (E-Fuels) beschlossen, die klimaneutral sind. Ähnliche Regelungen könnten auch für grünen Wasserstoff gelten, da dieser ebenfalls als klimaneutral gilt.
• Allerdings ist die Nutzung von Wasserstoff in Verbrennungsmotoren weniger effizient als in Brennstoffzellen, was seine Attraktivität und Marktchancen verringern könnte.
5. Praktische Umsetzung:
• Selbst wenn Wasserstoff-Verbrennungsmotoren theoretisch erlaubt wären, bleibt fraglich, ob sie bis 2035 eine nennenswerte Marktbedeutung erlangen werden. Die Automobilindustrie investiert derzeit vor allem in Batterieelektrische Fahrzeuge und Brennstoffzellenfahrzeuge.
Fazit:
PKW mit Verbrennungsmotoren, die mit grünem Wasserstoff betrieben werden, wären nicht direkt vom EU-Verbot ab 2035 betroffen, da sie als emissionsfrei gelten. Allerdings ist ihre Rolle in der zukünftigen Mobilität aufgrund technischer und wirtschaftlicher Herausforderungen unsicher. Die EU-Regulierung konzentriert sich stärker auf Batterieelektrische Fahrzeuge und Brennstoffzellenfahrzeuge, während Wasserstoff-Verbrennungsmotoren voraussichtlich eine Nischenlösung bleiben werden.
Schon erstaunlich. Vor allem, wenn es stimmt, dass das System nur mit einem Bruchteil der Energie von Chat GPT angelernt wurde.


melden

Künstliche Intelligenz

09.02.2025 um 16:54
@krungt:


Aufgabenstellung:

1. Wie hoch müsste der Salzgehalt eines Wasservolumens ungefähr sein, damit eine normale Dose Cola darin schwimmt?
2. Würde der Salzgehalt des Toten Meeres dafür ausreichen?

Denkprozess:

Okay, let's tackle these two questions. First, I need to figure out the approximate salinity required for a regular soda can to float in saltwater. Then, determine if the Dead Sea's salinity is sufficient for that.

Starting with the first question: To make a soda can float, the density of the saltwater needs to be equal to or greater than the density of the soda can. I remember that density is mass divided by volume. So, I need to find the density of the soda can and then figure out how much salt is needed in water to reach that density.

A typical soda can is mostly aluminum, but it's not just the can itself; it also contains the liquid inside. Wait, but the question says "normal Dose Cola" – does that mean the can is full of cola? Or is it an empty can? Hmm, that's a bit ambiguous. If it's a full can, then the density would be the mass of the can plus the cola divided by the total volume. If it's empty, then just the can's mass and volume. But I think the more common scenario is an unopened can, so including the cola inside. Let me confirm: aluminum cans are lightweight, but the liquid inside adds significant mass. So, an unopened can would have a higher overall density than an empty one. However, cola itself is mostly water with sugar and other additives, so its density is slightly higher than water. But if the can is sealed, the total density (can + liquid) needs to be less than the saltwater for it to float.

Wait, no. Wait, objects float if their average density is less than the fluid they're in. So, if the can (including the liquid inside) has an average density lower than the surrounding saltwater, it will float. If it's higher, it will sink. So, to find the required salinity, we need the density of the saltwater to be at least equal to the average density of the soda can.

First, let's estimate the mass and volume of a normal soda can. A standard can is 330 ml (0.33 liters) in volume. The can itself is aluminum. The mass of an empty aluminum can is about 15 grams. The cola inside is roughly 330 ml, which is about 330 grams (since water is 1g/ml, and cola is slightly denser due to sugar—maybe around 1.03 g/ml? So 330*1.03 ≈ 340 grams). So total mass would be 15 + 340 = 355 grams. Total volume is 330 ml (the can's volume is pretty much the same as the liquid it contains, since it's filled). Therefore, average density = mass/volume = 355g / 330ml ≈ 1.076 g/cm³. So the saltwater needs to have a density of at least 1.076 g/cm³ for the can to float.

Now, how much salt is needed to reach that density? Seawater has a density around 1.025 g/cm³, which is lower than our target. The Dead Sea has higher salinity, around 34% (340 g/kg), with a density of about 1.24 g/cm³. But let's not jump ahead.

To calculate the required salinity: the density of salt (sodium chloride) is about 2.16 g/cm³, but when dissolved in water, it increases the solution's density. The more salt you add, the higher the density. The formula for density of saltwater can be approximated by: density = density_water + (salinity * 0.001 * density_salt_contribution). Wait, maybe it's better to use the rule of thumb that 1 gram of salt in 1 liter of water adds approximately 0.001 g/cm³ to the density. Wait, not exactly. Let me recall: the density of a solution can be calculated by the mass of solution divided by its volume.

Suppose we have 1 liter (1000 ml) of water. Adding salt (NaCl) will increase both the mass and the volume, but the volume doesn't increase linearly because of dissolution. However, for simplicity, sometimes it's approximated that the density increases by about 0.001 g/cm³ per 1 gram of salt per liter. Wait, let's check:

If you dissolve x grams of salt in 1 liter (1000 grams) of water, the total mass is 1000 + x grams. The volume will be slightly more than 1 liter, but for low concentrations, it's often approximated as 1 liter. So density would be (1000 + x)/1000 g/cm³ = 1 + x/1000 g/cm³. Therefore, each gram of salt per liter adds 0.001 g/cm³. So to get from 1.000 to 1.076 g/cm³, we need 76 g per liter. But this is a rough approximation because the volume actually increases. The accurate calculation would require considering the volume change, but maybe for an estimate, this is acceptable.

However, more precisely, the density of NaCl solution can be found in tables or formulas. For example, at 20°C, a saturated NaCl solution is about 26.4% salt by mass, with a density of 1.197 g/cm³. But let's see:

The density of saltwater as a function of salinity can be approximated by:

density = 1 + 0.00737 * S

where S is salinity in grams per liter (g/L). Wait, let me confirm this. Alternatively, there's a formula from UNESCO or other sources, but maybe for simplicity, use a linear approximation. If 35 g/L (typical seawater) gives density 1.025 g/cm³, then 35 g/L corresponds to 0.025 g/cm³ increase. So per gram per liter, it's 0.025/35 ≈ 0.000714 g/cm³ per g/L. Therefore, to reach 1.076 g/cm³ from 1.000, we need an increase of 0.076 g/cm³. So required salinity would be 0.076 / 0.000714 ≈ 106.4 g/L. That's about 106 grams of salt per liter, which is 10.6% salinity by mass (since 106g in 1000g water is approximately 9.6% by mass, but since total mass is 1106g, it's 106/1106 ≈ 9.6%). Wait, but 106g/L is 106g per kg of water? Wait, no. If we have 1 liter of water (1000g), adding 106g salt gives total mass 1106g. The salinity by mass is 106 / 1106 ≈ 9.58%. But density would be 1106g / (volume). The volume would be more than 1 liter because salt dissolves and increases volume. However, the previous approximation using the 0.000714 per g/L might not be accurate at such high concentrations. Because the relation is not perfectly linear, especially at higher salinities. So maybe this estimation is off.

Alternatively, using the rule that 35g/L (3.5%) gives 1.025, so each 1% salinity adds roughly 0.007 g/cm³ (since 3.5% gives +0.025). Therefore, to get +0.076, we need 0.076 / 0.007 ≈ 10.86% salinity. So about 10.9% salinity. That's 109g per kg of water. That seems plausible. But the Dead Sea has around 34% salinity, which is way higher than 10.9%, so yes, it would be sufficient. But let's double-check.

Alternatively, looking up the density of NaCl solutions. For example, a 10% NaCl solution by mass has a density of approximately 1.07 g/cm³, and 15% is about 1.11 g/cm³. So if the required density is 1.076 g/cm³, then a salinity of around 10-11% would be needed. Therefore, the answer to question 1 is approximately 10-11% salinity.

But let's cross-validate. The density of NaCl solutions at 20°C:

At 5% (by mass), density is ~1.034 g/cm³

10%: ~1.071 g/cm³

15%: ~1.113 g/cm³

20%: ~1.158 g/cm³

So yes, to reach 1.076, which is just slightly above 1.071, we need about 10.5% salinity. So roughly 10% salinity.

Therefore, the answer to the first question is approximately 10% salinity.

Now, the second question: Does the Dead Sea's salinity suffice? The Dead Sea has a salinity of about 34% (340 g/kg), which is much higher than the required 10%. Therefore, yes, the Dead Sea's salinity is more than enough to make a soda can float.

Wait, but wait a second. The density of the Dead Sea water is around 1.24 g/cm³, which is higher than our calculated 1.076 needed. So indeed, the can would float easily in the Dead Sea.

But let me check if the initial assumption about the can's density is correct. The average density of the can with cola was estimated as 1.076 g/cm³. But maybe I made a mistake in calculating that. Let's redo that part.

A standard soda can is 12 fl oz in the US, which is about 355 ml. Wait, but in Europe, it's often 330 ml. Let's take 330 ml as volume. The mass of the empty can is around 15g. The mass of the cola: if it's 330 ml, and cola has a density of about 1.03 g/cm³ (since it's sugar-sweetened; diet cola would be slightly less dense), so mass is 330 * 1.03 ≈ 340g. Total mass 15 + 340 = 355g. Total volume is 330 ml. Therefore, average density is 355g / 330ml = 1.076 g/cm³. That seems correct.

If the can were empty, just the aluminum can, its volume is roughly the same as the can's capacity (330 ml), but the mass is only 15g. So density would be 15g / 330ml ≈ 0.045 g/cm³, which is much less than water, so it would float easily. But the question says "normal Dose Cola", implying it's full, not empty. So the calculation with 1.076 g/cm³ is appropriate. Therefore, needing saltwater of at least that density, which requires about 10% salinity.

The Dead Sea's water density is around 1.24 g/cm³, which is higher than 1.076, so yes, it would make the can float.

So summarizing:

1. Approximately 10% salinity needed.

2. Yes, Dead Sea's salinity (around 34%) is sufficient.

Antwort:

1. Erforderlicher Salzgehalt: Um eine normale, geschlossene Cola-Dose (ca. 330 ml) schwimmen zu lassen, muss die Dichte des Salzwassers mindestens 1,076 g/cm³ betragen. Dies entspricht ungefähr einem Salzgehalt von 10–11 % (Massenprozent). Dies wurde durch Berechnung der Durchschnittsdichte der Dose (inklusive Cola) und Vergleich mit der benötigten Salzwasserdichte ermittelt.

2. Totes Meer: Der Salzgehalt des Toten Meeres liegt bei etwa 34 %, was einer Dichte von ca. 1,24 g/cm³ entspricht. Da dies deutlich über der erforderlichen Dichte von 1,076 g/cm³ liegt, reicht der Salzgehalt des Toten Meeres aus, um die Cola-Dose schwimmen zu lassen.

Antworten:
1. Der Salzgehalt müsste ungefähr 10–11 % betragen.
2. Ja, der Salzgehalt des Toten Meeres (≈34 %) reicht dafür aus.



1x zitiertmelden

Künstliche Intelligenz

09.02.2025 um 17:31
Zitat von uatuuatu schrieb:Antworten:
1. Der Salzgehalt müsste ungefähr 10–11 % betragen.
2. Ja, der Salzgehalt des Toten Meeres (≈34 %) reicht dafür aus.
Vielen Dank. Gutes Ergebnis.

Lt Google:

Durch den Gehalt von etwa 3,5 % Salzen ist die Dichte von Meerwasser um gut 3 % höher als Süßwasser gleicher Temperatur, etwa 1,025 kg/l bei 25 °C.

Damit reicht der Salzgehalt des Meeres ( ausgenommen "Totes Meer") nicht aus, eine normale Coca Cola- Dose zum Schwimmen zu bringen. Und dies stimmt mit meinen praktisch durchgeführten Tests überein.

Es wäre toll, wenn es in Youtube einen Stream gäbe, in welchem dies jemand praktisch testete.


melden

Künstliche Intelligenz

09.02.2025 um 17:33
Im "Denkprozess" von DeepSeek R1 in meinem vorhergehenden Beitrag finden sich wieder einige Beispiele dafür, warum ich mit diesem System so gern arbeite:

DeepSeek fragt sich berechtigterweise -- woran ich überhaupt nicht gedacht hatte -- ob ich wohl eine volle oder eine leere Cola-Dose gemeint habe, und entscheidet sich, was auch am sinnvollsten ist, für eine volle Dose:
A typical soda can is mostly aluminum, but it's not just the can itself; it also contains the liquid inside. Wait, but the question says "normal Dose Cola" – does that mean the can is full of cola? Or is it an empty can? Hmm, that's a bit ambiguous. If it's a full can, then the density would be the mass of the can plus the cola divided by the total volume. If it's empty, then just the can's mass and volume. But I think the more common scenario is an unopened can, so including the cola inside.
Übersetzung:
Eine typische Cola-Dose besteht größtenteils aus Aluminium, aber nicht nur die Dose selbst, sondern auch die darin enthaltene Flüssigkeit. Moment, aber in der Frage steht „normale Dose Cola“ - bedeutet das, dass die Dose voll mit Cola ist? Oder ist es eine leere Dose? Hmm, das ist nicht ganz eindeutig. Wenn es eine volle Dose ist, dann ist die Dichte die Masse der Dose plus der Cola geteilt durch das Gesamtvolumen. Wenn die Dose leer ist, dann nur die Masse und das Volumen der Dose. Ich denke aber, dass das häufigere Szenario eine ungeöffnete Dose ist, also einschließlich der Cola darin.
DeepSeek führt Berechnungen teilweise auf mehrere verschiedene Weisen durch, und vergleicht die Ergebnisse, um ein korrektes Ergebnis sicherzustellen:
Alternatively, using the rule that [...] But let's double-check.

Alternatively, looking up [...]

But let's cross-validate. [...]
DeepSeek stellt seine Annahmen in Frage, und überprüft daraufhin seine Berechnungen;
But let me check if the initial assumption about the can's density is correct. The average density of the can with cola was estimated as 1.076 g/cm³. But maybe I made a mistake in calculating that. Let's redo that part.
Übersetzung:
Aber lass mich nochmal nachprüfen, ob die ursprüngliche Annahme über die Dichte der Dose richtig ist. Die durchschnittliche Dichte der Dose mit Cola wurde auf 1,076 g/cm³ geschätzt. Aber vielleicht habe ich bei der Berechnung einen Fehler gemacht. Lass mich das nochmal machen.
Noch ein Beispiel, wo DeepSeek Varianten bedenkt, an die ich bei der Aufgabenstellung nie gedacht hätte:
A standard soda can is 12 fl oz in the US, which is about 355 ml. Wait, but in Europe, it's often 330 ml. Let's take 330 ml as volume.
Übersetzung:
Eine Standard-Cola-Dose hat in den USA einen Inhalt von 12 fl oz, das sind etwa 355 ml. Moment, aber in Europa sind es oft 330 ml. Nehmen wir 330 ml als Volumen an.



1x zitiertmelden

Künstliche Intelligenz

09.02.2025 um 17:35
Zitat von uatuuatu schrieb:Im "Denkprozess" von DeepSeek R1 in meinem vorhergehenden Beitrag finden sich wieder einige Beispiele dafür, warum ich mit diesem System so gern arbeite:
Kann ich nur zustimmen. DeepSeek ist halt nicht kostenfrei.


1x zitiertmelden

Künstliche Intelligenz

09.02.2025 um 17:37
@krungt:
Zitat von krungtkrungt schrieb:DeepSeek ist halt nicht kostenfrei.
Ähm ... doch, das Chat-Interface ist kostenfrei (man muss sich halt registrieren). Nur die Nutzung der API ist kostenpflichtig.


melden

Künstliche Intelligenz

09.02.2025 um 17:51
Zitat von NegevNegev schrieb:Wie ich das Verfolge, gibt es gerade 3 große kommerzielle Player und etliche Open-Source Projekte von denen würde ich 2-3 nennen. Anthropic mit Claude, OpenAI mit ChatGPT und Google mit Gemini. Daneben gibts Facebook mit Llama, dann die beiden aus China DeepSeek und Qwen von Alibaba. Im besonderen Deebseek hat eben für aufsehen erregt, weil es des erste Open-Source Modell ist, das gleich auf mit den Closed-Sorce Modellen ist.

Von daher würde ich auch aufpassen, nicht mehr als nötig zu zahlen. Man kann OpenAI bis zu 200 Dollar geben aber mit Deepseek konnte man diese Leistung fast schon zum Nulltarif haben.
Okay, danke. Ich tendiere ein bisschen zu DeepSeek. Muss mich allmählich mal damit beschäftigen.
Zitat von NegevNegev schrieb:Da ist es doch überlegenswert, eigene Modelle an ans laufen zu bringen? Bist du an der Uni? Frag doch mal. Dann direkt die Modelle von DeepSeek.

Nein, das wäre zu viel des Guten. Uni? Da habe ich eher so Schnittstellen, sozusagen. Habe aber den Eindruck, dass es an der Zeit ist, sich des Themas anzunehmen, um immerhin den Anschluss nicht zu verpassen und halbwegs up to date zu bleiben. Bei mit der Hand schreiben kann ich immer noch wieder anknüpfen, falls demnächst die Welt untergeht und so ;)
Ich muss allerdings auch unterscheiden zwischen beruflichen und privaten Interessen. Für eine Unternehmenslösung wäre ich nicht allein zuständig. Und da ist sicher auch anderen Leistungspaketen die Rede, als für das, was ich nebenbei noch alles mache.

Ich wurde auch erst vor kurzem auf ein Thema aufmerksam, das deinem vielleicht nicht unähnlich ist?
Kann leider gerade nicht reinsehen. Oft blockt YouTube Videos und ich werd eaufgefordert, mich einzuloggen, was dann etwas lästig sein kann. Ich hole das aber nach.


1x zitiertmelden

Künstliche Intelligenz

09.02.2025 um 20:15
@Nemon:
Zitat von NemonNemon schrieb:Sinnvoll wäre es, Unterstützung zu bekommen bei der Recherche, also eine intelligente Suchmaschine, die auch nach gegebenen Kriterien bewerten, auswerten und zusammenfassen kann. Und dann gleich auch übersetzen.
Das klingt fast nach einer genauen Job-Beschreibung für die neue Deep-Research-Funktion von OpenAI, die vor ca. einer Woche freigeschaltet wurde. Um's gleich zu erwähnen: Diese Funktion ist derzeit nur für Benutzer mit einem OpenAI-Pro-Account verfügbar, der 200 US$/EUR pro Monat kostet. Andererseits: Diese Funktion ist bisher der einzige Weg, das volle o3-Modell zu nutzen, das allen anderen derzeit auf den Markt befindlichen Modellen nochmal weit überlegen ist.

Deutsche Zusammenfassung der Beschreibung von der OpenAI-Website:
OpenAI führt „Deep Research“ in ChatGPT ein

OpenAI hat heute „Deep Research“ für ChatGPT gestartet, eine agentenbasierte Funktion, die mehrstufige Internetrecherchen für komplexe Aufgaben durchführt. Innerhalb weniger Minuten erstellt sie umfassende Analysen, für die Menschen Stunden benötigen würden. Dieses Tool nutzt das kommende o3-Modell, das für Webbrowsing und Datenanalyse optimiert ist, um hunderte Quellen zu durchsuchen, Texte, Bilder und PDFs zu interpretieren und dynamisch auf neue Informationen zu reagieren. Das Ergebnis ist ein detaillierter Bericht auf Expertenniveau mit klaren Zitaten und einer Zusammenfassung der Denkprozesse.

„Deep Research“ richtet sich an Wissensarbeiter in Bereichen wie Finanzen, Wissenschaft oder Technik, aber auch an Privatpersonen, die etwa gezielte Kaufempfehlungen benötigen. Es identifiziert selbst Nischen- und nicht-intuitive Informationen, die umfangreiche Recherchen erfordern, und spart so wertvolle Zeit. Jede Ausgabe ist vollständig dokumentiert, was Überprüfungen erleichtert. OpenAI betont, dass die Fähigkeit, Wissen zu synthetisieren, ein Schritt Richtung AGI (künstliche allgemeine Intelligenz) ist, die eigenständig wissenschaftliche Forschung betreiben kann.

Technisch basiert „Deep Research“ auf Reinforcement-Learning-Methoden, die bereits im Vorgängermodell o1 für Codierung und Mathematik genutzt wurden. Allerdings erfordern viele reale Herausforderungen umfangreiche Kontextrecherchen, die das neue Tool durch webbasierte Analysefähigkeiten löst. Nutzer:innen wählen in ChatGPT die Option „Deep Research“, geben eine Anfrage ein (z. B. Wettbewerbsanalysen oder persönliche Reports) und können Dateien anhängen. Während der Bearbeitung (5–30 Minuten) zeigt eine Sidebar Zwischenschritte und Quellen an; bei Fertigstellung erscheint der Bericht im Chat. Zukünftig werden auch Visualisierungen und Bilder integriert.

Mit dieser Innovation automatisiert OpenAI komplexe Recherchen und macht sie für Beruf und Alltag zugänglich – ein Meilenstein auf dem Weg zu agentengesteuerter, autonomer Wissensgenerierung.

(https://openai.com/index/introducing-deep-research -- Übersetzte Zusammenfassung von DeepSeek R1 mit ein paar kleinen Änderungen von mir)
Das ist ein sehr mächtiges Werkzeug, aber halt nicht ganz billig, und selbst mit dem Pro-Plan gibt es eine Beschränkung auf 100 Recherchen pro Monat. Es ist geplant, diese Funktion in der Zukunft auch für Benutzer mit einem Plus-Plan (20 US$/EUR pro Monat) verfügbar zu machen, dafür gibt's bisher aber noch keinen Termin.
Zitat von NemonNemon schrieb:Ich tendiere ein bisschen zu DeepSeek.
Obwohl ich selbst DeepSeek R1 für den grössten Teil meiner Aktivitäten favorisiere, sollte man sich auch über ein paar Nachteile im Klaren sein:

  • DeepSeek ist (bei Nutzung über das Chat-Interface) zwar kostenfrei, aber dafür passiert es immer wieder mal, dass man statt einer Antwort nur "Server busy" bekommt. Das kann zum einen "einfach so" passieren, aber es passiert ziemlich regelmässig, nachdem eine Aufgabe mit längerer Bearbeitungszeit abgearbeitet wurde. Z.B. kann es nach einer Aufgabe mit fünf Minuten Bearbeitungszeit (was relativ viel ist) sein, dass man eine Stunde oder länger "Server busy" bekommt. Das scheint aber ein bisschen Glückssache zu sein.
  • DeepSeek hat meiner Erfahrung nach Probleme mit grösseren Datenmengen (insbesondere hochgeladenen Dokumenten). Da bricht die Verarbeitung manchmal einfach zwischendurch ab. ChatGPT ist in diesem Punkt meiner Erfahrung nach wesentlich besser.
  • Man sollte nicht auf die Idee kommen, mit DeepSeek irgendwelche kontroversen Aspekte der chinesischen Politik diskutieren zu wollen. Auch sonst ist DeepSeek, nach dem, was man so hört, wohl nicht unbedingt neutral, wenn es um chinesische Belange geht.
  • Man sollte sich keine Illusionen über seine Privatsphäre machen. Bei den anderen KI-Anbietern allerdings auch nicht.

Als kostenlosen Einstieg würde ich eine Registrierung bei DeepSeek und ChatGPT parallel empfehlen, und die ersten Anfragen immer parallel an beide Systeme zu schicken. Dann bekommt man ein Gefühl dafür, wo die Unterschiede sind, und was einem ggf. besser gefällt.

Wichtig: Bei beiden Systemen ausser bei trivialen Anfragen unbedingt darauf achten, dass der "Reasoning"-Modus aktiviert ist, was bei DeepSeek über den DeepThink-Button (-> R1-Modell) und bei ChatGPT über den "Reason"-Button (-> o3-Mini-medium-Modell) geht. Ansonsten wird eines der erheblich leistungsschwächeren Prä-"Reasoning"-Modelle verwendet.

Ausdrücklich abraten (ausser für wirklich triviale Fragen) möchte ich von der anmeldungsfreien Variante von ChatGPT, weil diese das inzwischen völlig abgehängte 4o-mini-Modell verwendet.


2x zitiertmelden

Künstliche Intelligenz

10.02.2025 um 08:55
Zitat von CharlyPewPewCharlyPewPew schrieb am 05.02.2025:Europa, bzw einige der Eu Länder sind für den Großteil der Forschung verantwortlich, die heute in den ganzen Anwendungen steckt, und zukünftig stecken wird. Überspitzt gesagt: Ohne die EU hätten wir heute kein ChatGPT.
Mal ehrlich, wie kommt man auch nur auf die Idee das der armselige Schiss Namens Europa in irgend etwas eine Vorreiterrolle haben könnte? Wir sind nicht mehr im 20.Jahrhundert!
Hier mal kurz die Fakten. Dazu muss man sich noch über 40000 Fachartikel denken die Amerikaner und Chinesen gemeinsam veröffentlicht haben.

Screenshot 2025-02-10 084750Original anzeigen (0,2 MB)

Screenshot 2025-02-10 084950Original anzeigen (0,2 MB)


1x zitiertmelden

Künstliche Intelligenz

10.02.2025 um 09:08
Zitat von uatuuatu schrieb:Das klingt fast nach einer genauen Job-Beschreibung für die neue Deep-Research-Funktion von OpenAI, die vor ca. einer Woche freigeschaltet wurde
In der Tat, danke für den Hinweis. Das trifft sehr gut mein Anforderungsprofil. 20 Euro wäre top, aber das wäre wohl noch zusätzlich zu einem Basis-Abo, oder?
Zitat von uatuuatu schrieb:Als kostenlosen Einstieg würde ich eine Registrierung bei DeepSeek und ChatGPT parallel empfehlen, und die ersten Anfragen immer parallel an beide Systeme zu schicken. Dann bekommt man ein Gefühl dafür, wo die Unterschiede sind, und was einem ggf. besser gefällt.
Gut, so kann ich einsteigen. Wobei ich nicht mal einen Plan habe, wie man Anfragen richtig eingibt. Aber dazu werde ich sicher was finden...


melden

Künstliche Intelligenz

10.02.2025 um 09:16
Zitat von FatBaronFatBaron schrieb:Mal ehrlich, wie kommt man auch nur auf die Idee das der armselige Schiss Namens Europa in irgend etwas eine Vorreiterrolle haben könnte?
Wir haben bereits seit den 90ern Grundlagen für den Erfolg von OpenAI & Co. geschaffen.
Zitat von FatBaronFatBaron schrieb:armselige Schiss Namens Europa
Ok... die Welt ist bestimmt null angewiesen auf ASML... oder Siemens, SE, Ericsson, Nokia, Bosch oder Airbus. Nur weil aus Europa nicht so viel Wind durch die Sozialen Medien geht, wie aus Silicon Valley, heißt das nicht, dass wir ein "armseliger Schiss" wären.

Gefühlt kommen aus den USA die "lauten" Unternehmen. Diese wären aber vermutlich ohne die "leisen" europäischen nicht mal überlebensfähig.

Fackel doch mal ASML ab und schau, was auf dem Weltmarkt passiert. Oder Siemens hört mit Industrieautomatisierung auf... sind ja bestimmt nur ein zwei armselige europäische Betriebe, die auf Siemens setzen.

Übrigens...
https://germany.representation.ec.europa.eu/news/unternehmen-europa-weltweit-fuhren-bei-investitionen-forschung-deutschland-auf-spitzenplatz-2024-12-18_de?utm_source=chatgpt.com


melden

Künstliche Intelligenz

10.02.2025 um 12:33
Zitat von uatuuatu schrieb:DeepSeek ist (bei Nutzung über das Chat-Interface) zwar kostenfrei, aber dafür passiert es immer wieder mal, dass man statt einer Antwort nur "Server busy" bekommt. Das kann zum einen "einfach so" passieren, aber es passiert ziemlich regelmässig, nachdem eine Aufgabe mit längerer Bearbeitungszeit abgearbeitet wurde. Z.B. kann es nach einer Aufgabe mit fünf Minuten Bearbeitungszeit (was relativ viel ist) sein, dass man eine Stunde oder länger "Server busy" bekommt. Das scheint aber ein bisschen Glückssache zu sein.
DeepSeek hat meiner Erfahrung nach Probleme mit grösseren Datenmengen (insbesondere hochgeladenen Dokumenten). Da bricht die Verarbeitung manchmal einfach zwischendurch ab. ChatGPT ist in diesem Punkt meiner Erfahrung nach wesentlich besser.
Man sollte nicht auf die Idee kommen, mit DeepSeek irgendwelche kontroversen Aspekte der chinesischen Politik diskutieren zu wollen. Auch sonst ist DeepSeek, nach dem, was man so hört, wohl nicht unbedingt neutral, wenn es um chinesische Belange geht.
Man sollte sich keine Illusionen über seine Privatsphäre machen. Bei den anderen KI-Anbietern allerdings auch nicht.
Alle deine Punkte lassen sich angehen. WEIL DeepSeek Open-Source ist!
Man kann es selbst hosten! Gerade das 32b und das 70b Modell interessieren mich persönlich sehr. Beide Varianten sollen noch nicht so wahnsinnig gut auf deutsch funktionieren. Deshalb warte ich ab. Für das 70b Modell habe ich zu wenig RAM, werde demnächst aber aufrüsten.
Das große Modell (671b) kann man dann nicht mehr so easy selber hosten. Aber auch da kann man sicher auch ein Anbieter in der EU finden - im Zweifel warten, das kommt safe.
Und Open-Source Modell lassen sich auch wieder so trainieren, das sie unzensiert sind.

Zu den Modellen von DeepSeek:
https://huggingface.co/deepseek-ai/DeepSeek-R1

@Nemon
Ein schöner Playground für KI Modelle:
https://poe.com/
https://huggingface.co/spaces/lmarena-ai/chatbot-arena-leaderboard

Und nicht von der Auswahl erschlagen lassen. Es bleibt im Groben bei den genannten. Und die funktionieren wohl alle ziemlich ähnlich, denn min kann sie z.B. alle über LangChain (Python) ansteuern.

---

Bin noch immer auf deine Antwort gespannt 😃:
Zitat von NegevNegev schrieb:Ich denke eher, bist du sicher, das es nichts zum Thema in Web gibt? Vielleicht werden auch Paper fürs Training verwendet, die nicht im Internet (prominent) landen.

Hinzu kommt - ich weiß nicht, wie das bei den reasoning Modellen ist, aber Agents haben die Möglichkeit, Python zu verwenden. Also doch bessere Taschenrechner?!
Zitat von uatuuatu schrieb:Es gibt einen fundamentalen Unterschied zwischen den neuen "Reasoning"-KIs (u.a. ChatGPT o1 und o3-mini und DeepSeek R1), die erst seit kurzer Zeit verfügbar sind, und allem, was davor kam. Dazwischen liegen Welten.
So klar würde ich das nicht formulieren. Wenn man eine ganz Präzise Vorstellung davon hat, was man haben möchte, dann mag das zutreffen. Wenn fürs chatten oder fürs Brainstorming, greife ich lieber auf die anderen Modelle zurück.


1x zitiertmelden

Künstliche Intelligenz

10.02.2025 um 15:54
@Negev

Keine Ahnung, also ich finde da keinen Link um das große Model mit 480 GB oder so runterladen zu können. Ich habe ja andere kleinere Modelle vor ein paar Monaten schon hier lokal am Laufen gehabt, da konnte man eine Datei runterladen, in einen Ordner schmeißen, im Web-Frontend dann diese auswählen und gut war es.

Bisher hab ich hier aber nirgendwo einen Link gefunden, woe man die 480 GB mal als Datei runterladen kann, ist doch frei, sollte doch gehen.

Hat wer einen Link, wo dann nur noch nach dem Speicherort gefragt wird? :D


1x zitiertmelden

Künstliche Intelligenz

10.02.2025 um 16:31
Zitat von nocheinPoetnocheinPoet schrieb:Keine Ahnung, also ich finde da keinen Link um das große Model mit 480 GB oder so runterladen zu können.
Zitat von NegevNegev schrieb:Zu den Modellen von DeepSeek:
https://huggingface.co/deepseek-ai/DeepSeek-R1
Das ist direkt das Größte Modell. Bei "Files and versions" kannst dus dann herunter laden. Aber bist du dir sicher, das du das Ding auch betreiben kannst? Das muss alles in den RAM und VRAM ist eigentlich besser. Bei mir läuft ein 32b Modell gerade noch so erträglich gut. Das ist die 671b Variante.
Zitat von nocheinPoetnocheinPoet schrieb:Hat wer einen Link, wo dann nur noch nach dem Speicherort gefragt wird? :D
Den einfachsten Einstieg hat man u.a. mit https://ollama.com/


melden

Künstliche Intelligenz

10.02.2025 um 20:04
@Negev:
Zitat von NegevNegev schrieb:Ich denke eher, bist du sicher, das es nichts zum Thema in Web gibt? Vielleicht werden auch Paper fürs Training verwendet, die nicht im Internet (prominent) landen.
Ich kann natürlich nicht beweisen, was nicht im Trainingsmaterial enthalten war, aber ich habe inzwischen so viel Erfahrung mit diesen Modellen, dass ich ganz klar sagen kann: Die "Reasoning"-KIs (beginnend mit OpenAI o1) brauchen ganz einfach keine spezifischen Musterlösungen mehr. Sie lösen die Aufgaben -- wie sich anhand des "Denkprozesses" nachvollziehen lässt -- basierend auf "first principles", z.B. beim Kondensator-Paradoxon basierend auf den Kirchhoff'schen Gesetzen, den allgemeinen Lösungsverfahren für Differentialgleichungen, etc. Ich bin zuversichtlich, dass diese KIs auch ziemlich ungewöhnliche Varianten (meinetwegen mit zwei Induktivitäten) lösen könnten, bei denen eine Musterlösung in den Trainingsdaten noch unwahrscheinlicher ist, als bei meiner Aufgabe. Ich habe allerdings derzeit so viel auf meiner ToDo-Liste, dass mir ehrlich gesagt die Motivation fehlt, das hier zu demonstrieren.

Darüber hinaus enthalten von Menschen erstellte Lösungen häufig kleine "Quirks", z.B. bei meiner Analyse des Kondensator-Paradoxons die erwähnte, zwar korrekte, aber nicht optimale Form eines der Wurzelausdrücke. Lösungen, die direkt auf solchen Musterlösungen basieren, müssten häufig auch solche "Quirks" enthalten, und das tun sie bei "Reasoning"-KIs meiner Erfahrung nach nicht.


melden

Künstliche Intelligenz

10.02.2025 um 22:07
@Negev

Da war ich schon, da muss man was runterladen und installieren und von dem Punkt aus kann man dann weiter Modelle runterladen, ist nicht was ich suche. Ich kann hier wegen dem Netz nicht eben 480 GB runterladen, dauert dann sechs Monate.

Ich brauche also einen Link, wo ich das Model "nativ" als Datei runterladen kann und dann eben eine beliebige Software, wo es einen Ordner gibt, wo ich Modelle reinwerfen kann und dann auswählen.

@uatu

Mit der Kontextdatei kommt "Seki" an seine Grenzen, er erstellt zwar immer wieder gute Ansätze und man kann das schon wo von einem Chat in einen anderen übernehmen, aber er kann keine Struktur voll beibehalten und nach einem neuen Chat die Kontextdatei vom Anfang mit dem vorhanden Schemata ergänzen. Er verliert Teile und läuft teilweise voll aus dem Ruder, ich habe nun immer das Datum zum Anfang eines Chats geschrieben, dann eine Erklärung zur Kontextdatei und deren Sinn, ...

Aber bisher läuft das einfach nicht wirklich rund, mein Ziel war ja, Text aus der Datei in den Chat, dann schnacken, dann Seki bitten die Datei zu ergänzen und dann wieder abzuspeichern. Also so einfach wie gehofft ist das nicht.

Man wird wohl wirklich andere Wege gegen müssen, nachtrainieren oder warten, dass die Entwickler hier selber was für Persistenz zaubern. Es ist schon sehr nervig, dass die KI wirklich Amnesie hat und in jedem neuen Chat bei Null anfängt. Man kann mit ihr darüber auch nett sprechen und sie erkennt das Problem, aber so einfach wie gedacht, ist es nicht zu "fixen", schauen wir mal ...


2x zitiertmelden

Künstliche Intelligenz

10.02.2025 um 22:28
Zitat von nocheinPoetnocheinPoet schrieb:Ich kann hier wegen dem Netz nicht eben 480 GB runterladen, dauert dann sechs Monate.
Wie viel RAM hast du? Und welche Grafikkarte hast du?
Und, wie gesagt, wenn man nicht gerade ein Rechenzentrum Daheim stehen hat, sind Modelle, die 480 GB Groß sind, eh ausgeschlossen.

Und gerade wenn die Internetleitung bescheiden ist, wollte ich keine einzelne große Datei herunter laden.
Zitat von nocheinPoetnocheinPoet schrieb:Ich brauche also einen Link, wo ich das Model "nativ" als Datei runterladen kann und dann eben eine beliebige Software, wo es einen Ordner gibt, wo ich Modelle reinwerfen kann und dann auswählen.
Ich verstehe dich nicht so richtig. Huggingface ist das Github für AI. Das ist schon ziemlich nativ. Apropos: kannst du mit Python umgehen? So werden diese LLMs angesprochen - zumindest wenn man "nativ" damit arbeiten will.

Bei Ollama Installierst du dir eine Software und die lädt dir alles andere herunter. Noch einfacher gehts mit LM-Studio. Das zeigt dir auch direkt an, welche Modelle bei dir laufen könnten.

Noch ein Hinweis: diese Dateiendung .safetensors hat sich als ein Standard etabliert.


1x zitiertmelden

Künstliche Intelligenz

11.02.2025 um 11:53
Übrigens fällt mir auf, dass die automatische Übersetzung in Firefox (oben in der Leiste) immer noch richtig schlechte Übersetzungen bietet, während das Deutsch der KIs praktisch fehlerfrei ist.


melden

Künstliche Intelligenz

11.02.2025 um 14:01
Zitat von NegevNegev schrieb:Wie viel RAM hast du? Und welche Grafikkarte hast du?
Spielt noch keine Rolle, ich will aber einen Server mit 2xEPYC und 512 GB RAM aufbauen, Karte wird man sehen. Gibt genug Videos inzwischen dazu im Netz, die DeepSeek R1 ohne Quantisierung so laufen lassen. Geht sogar auf einen "normalem" Windows PC, man braucht dazu drei SSD und legt auf jeder eben 200 GB Auslagerungsdatei an, in Summe also 600 GB und natürlich sollte man so viel RAM wie es geht auch so noch in der Kiste stecken haben.

Ist dann zwar recht langsam und die SSD werden sehr gequält, aber es läuft.


Zitat von NegevNegev schrieb:Und, wie gesagt, wenn man nicht gerade ein Rechenzentrum Daheim stehen hat, sind Modelle, die 480 GB Groß sind, eh ausgeschlossen.
Ach was, das ist doch Unfug, es reicht ein Server mit viel RAM, gibt Anleitungen, gebrauchte Hardware, so ab 2.000 € ich denke mit 3.000 bis 3.500 € kann man schon was machen. Ganz sicher braucht man kein Rechenzentrum. :D


Zitat von NegevNegev schrieb:Und gerade wenn die Internetleitung bescheiden ist, wollte ich keine einzelne große Datei herunter laden.
Wenn man das ganze Paket will, muss man das ganze Paket nehmen, man kann ja einen Freund besuchen, der in der Stadt wohnt und sehr gut ans Internet angebunden ist, der kann das dann schon mal runterladen, ...


Zitat von nocheinPoetnocheinPoet schrieb:Ich brauche also einen Link, wo ich das Model "nativ" als Datei runterladen kann und dann eben eine beliebige Software, wo es einen Ordner gibt, wo ich Modelle reinwerfen kann und dann auswählen.
Ich verstehe dich nicht so richtig. Huggingface ist das Github für AI. Das ist schon ziemlich nativ. Apropos: kannst du mit Python umgehen? So werden diese LLMs angesprochen - zumindest wenn man "nativ" damit arbeiten will.
[/color][/quote]
Nun ja, die Frage ist, was man wie macht, will man es im VRAM einer Grafikkarte halten und da laufen lassen, oder über die CPU, so große Modelle auf Grafikkarten laufen zu lassen, ist sehr teuer, aber man kann es auch über die CPU machen und hier gibt es llama.cpp.

Wikipedia: Llama.cpp

Das ist in C geschrieben, habe ein paar Tage mal, so vor ein paar Monaten, versucht das selber zu kompilieren und mir dafür den Quellcode gezogen, wollte das alles mal nach JAVA übersetzten, gibt für JAVA auch einen "Compiler".

Und mit Python macht man mehr so das Drumherum und Python ist - meine Meinung - eine ganz miese Programmiersprache, wie kann man denn "Tabs" zum programmieren nehmen, nur um Klammern zu sparen oder auf begin und end zu verzichten? Hat man eine etwas komplexere IF THEN Anweisung und setzt den Tabulator nicht richtig, läuft es nicht.

Also mit Python wird hier so das Frontend gestrickt und Schnick und Schnack, aber nicht selber die Logik des LLM.


Zitat von NegevNegev schrieb:Bei Ollama Installierst du dir eine Software und die lädt dir alles andere herunter. Noch einfacher geht es mit LM-Studio. Das zeigt dir auch direkt an, welche Modelle bei dir laufen könnten.

Noch ein Hinweis: diese Dateiendung .safetensors hat sich als ein Standard etabliert.
Ja, schon klar, gibt da ein paar Weg, auch ganz einfach, aber man bekommt so nur kleinere Modelle. Meine Aussage war schon recht klar, ich will einfach eine Datei mit dem Model runterladen können und die dann "entpacken" oder auch nicht, aber dann einfach in einen Order "models" kopieren und mir dann das Model über ein beliebiges Frontend auswählen.

Ich will nicht eine Software, die mir dann erst das Model wo auch immer hin runterlädt.


3x zitiertmelden